清水理史の「イニシャルB」
ChatGPTなど生成AIのガイドラインとサービス規約を超要約、何がOKで何がNGか確認する
2023年5月15日 06:00
2023年5月1日、一般社団法人日本ディープラーニング協会(JDLA)から「生成AIの利用ガイドライン」が公開された。ChatGPTなどの生成AIを組織で導入する際の利用方法を、具体的に定めることが可能なひな形だ。
個人でも、さまざまな使い方がされるようになってきたChatGPTだが、「こうした使い方がOKなのか?」と悩むシーンも少なくない。OpenAIの利用規約も含め、今こそ読んでおきたいガイドラインや規約から、重要な部分をピックアップしてみた。
生成AIの実践的な活用に向けた動きが活発に
ChatGPTに代表される生成AIを、実際に業務などに活用しようという動きが活発化している。すでに政府が活用策を検討しているが、パナソニックが「社内ChatGPT」を全社導入することを発表し、実際の導入も着々と進んでいる。
▼パナソニックのプレスリリース
AIアシスタントサービス「PX-GPT」をパナソニックグループ全社員へ拡大
教育機関でも、傍観せずに「むしろどのようにしたら問題を生じないようにできるのか、その方向性を見出すべく行動することが重要(東京大学副学長・太田邦史氏によるコメント)」と、新しい技術との向き合うことの重要性が説かれる一方で、学生向けに課題やレポートなどでの直接的な利用を禁止する方針も示されている。
何がOKで何がNGなのか? という方針が見えてきたことで、具体的にどう使うべきなのかが明らかになりつつある印象だ。
▼東京大学のコメント
生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
▼東北大学のコメント
ChatGPT等の生成系AI利用に関する留意事項(学生向け)
このほか、AI全般の利用ガイドラインについては、各省庁からもガイドラインやガイドブックが公開されていた。こうした中でJDLAが発表した「生成AIの利用ガイドライン」は、ChatGPTなどの生成AIに特化し、ビジネスシーンで汎用的に使えるわかりやすいガイドラインとなっている。
法的な理由の解説もなされており、個人でもChatGPTを仕事や学習に利用する際に、とても参考になるので、本稿で重要な部分をピックアップして解説することにする。
なお、本稿では、公開された時点の初版(2023年5月版)をもとに執筆している。今後、改訂が重ねられていく可能性があるため、必ずガイドラインの内容は最新版を確認してほしい。
JDLA「生成AIの利用ガイドライン」のポイントをQ&A形式で解説
ガイドラインの内容を見ていこう。はじめに全体像を紹介すると、このガイドラインはChatGPTのほかBingAI、Midjourney、Stable Diffusioといった生成AIを利用する際に、誰もが抱く以下のような懸念点に対し、組織としてのルールを定めるためのひな形となっている。
- 他人の著作権を侵害してしまう心配はないか?
- 自社の機密情報が漏洩してしまう心配はないか?
- 個人情報が流出してしまう心配はないか?
要するに、「著作権」「プライバシー」「セキュリティ」の3つの観点から、ChatGPTなどに対して「やっていいこと」と「やってはいけないこと」を、組織のルールとして決めようというものだ。
その内容は、「データ入力に際して注意すべき事項」「生成物を利用するに際して注意すべき事項」の2部構成になっている。本稿ではこれを、かみ砕いて内容を説明するため、Q&A形式に書き換えてみる。このため本稿では、ガイドラインの内容を網羅できているわけではない。
Q:第三者の著作物やロゴ、商標、著名人の顔写真を入力してもいい?
A:入力するだけなら法的リスクは低い。ただし、出力結果が既存の著作物と似ている場合、それをそのまま利用すると著作権を侵害する可能性がある。作品名、商品名、作家名などを入力に含めると出力が既存の著作物に似る可能性が高まるため特に注意が必要。
Q:第三者の著作物をファインチューニングやプロンプトエンジニアリングに使ってもいい?
A:日本の法律(著作権法30条の4)では、学習のためだけに利用するのであれば許可される可能性が高い。ただし、調整によって出力が既存の著作物に似る可能性が高くなるため、似た出力を利用すると侵害のリスクがある。
Q:顧客情報や社員の個人情報を入力してもいい?
A:個人情報の利用には本人の同意が必要となる。同意があれば可能だが現実には難しい。また、ChatGPTなど海外サービスの場合、外国にある第三者への提供に該当する可能性あるため(個人情報の保護に関する法律28条1項)、事業者の適合基準を確認したり、本人の同意を得たりする必要もある。
Q:NDA契約を結んだ外部の情報を入力してもいい?
A:NDA契約の内容次第。契約で規定されている限度内なら許可される可能性はあるが、基本的には入力は避けるべき。特に、学習に使われる可能性がある場合は入力を避けるべき。
Q:自社の機密情報を入力してもいい?
A:入力そのものは自社で許可されていればOK。ただし、ChatGPTなどの第三者も利用するサービスの場合、学習に機密情報が使われる可能性があり、その結果、機密情報に似た情報が第三者に対して出力されるリスクがある。
Q:出力された情報は、どのように使ってもかまわない?
A:オリジナルであることを検証する必要あり。似ている場合は著作権を侵害する可能性がある。
Q:出力された情報が第三者の名誉や信用を棄損する内容だったりしても、AIの出力なのだから、そのまま公開しても責任は問われない?
A:第三者の名誉や信用を棄損する可能性がある場合は、利用者の判断で掲載は避けるべき。なお、ChatGPTの場合、出力の権利は利用者にあるため、公開した出力に対する責任も利用者が負うと考えるのが妥当。
Q:出力された結果を商用利用したい。
A:利用するサービスの規約次第。ChatGPTの利用規約では商用利用OKとされているが、別途OpenAIが定めているUsage policiesおよびSharing & publication policyを遵守する必要がある。
Q:出力された結果が模倣されないように著作権で保護したい。
A:出力結果が著作物と認められるには「創作的寄与」が必要。テキスト生成系AIの場合、出力そのままでは認められない可能性があるが、加筆・修正すれば認められる可能性あり。
知らずに違反してない? ChatGPTの規約も確認しておこう
続いて、ChatGPTやOpenAIのサービス全体の利用規約も確認しておこう。前述したQAの後段で取り上げた出力の商用利用などについては、サービスに依存するため、利用規約や使用ポリシーに準じた使い方をしないと、規約違反として警告を受けたり、サービス使用停止になったりしてしまう可能性がある。
ChatGPTに関しては、確認しておくべきリソースは大きく4つある。「Term of use(利用規約)」は目を通している人も多いだろうが、そのほかに、入力データの学習を避けるための具体的な方法が記載されている「Data Controls FAQ」や、禁止事項や出力結果を利用する際の注意点などが記載された「Usage policies」、出力結果をSNSや出版物などで利用する際の注意点が記載された「Sharing & publication policy」も確認しておきたい。
なお、Usage policiesとSharing & publication policyは、利用規約に含まれると記載されている。ポリシーという書き方ではあるが、利用規約として同意しないとサービスを利用できないと考えられる。
▼ChatGPTおよびOpenAIの利用規約、ポリシー(カッコ内は本稿執筆時点での最終更新日)
Terms of use(2023/3/14)
Data Controls FAQ
Usage policies(2023/3/23)
Sharing & publication policy(2022/11/14)
こちらもボリュームがあるため、ポイントをかいつまんで取り上げ、Q&A形式で解説する。
利用規約に関するQ&A
Q:誰でも利用できる?
A:利用可能なのは13歳以上(18歳未満は保護者の許可が必要)。
Q:禁止行為はある?
A:ウェブインターフェースのスクレイピングやウェブサイトのデータ抽出などの自動化は禁止。自動化などはAPI経由で利用する。
Q:出力の所有権は誰にある?
A:出力に対する全ての権利、権限、および利益は利用者に譲渡される。
Q:出力を商用利用してもいい?
A:販売や出版などの商業目的を含む、あらゆる目的でコンテンツを使用できる。
Q:入力は学習に利用される?
A:APIを経由せずにユーザーが入力した情報(通常のウェブUIから入力した情報)は、モデルのパフォーマンス向上やサービスの改善に利用される。
Q:入力を学習に利用させない方法はある?
A:API経由で利用するか、User Content Opt Out Requestからオプトアプトを申請すれば利用されない。
Data Controls FAQに関するQ&A
Q:ChatGPTで入力した情報を学習させない簡単な方法はある?
A:[Settings]の[Data controls]にある[Chat History & Training]をオフにすると、チャット履歴が保存されなくなり、同時に学習に使われなくなる。ただし、不正行為監視のために内部的には30日間保存されてから削除される。
Q:チャット履歴をオンにしたまま学習を停止したい。
A:チャット履歴は保存した状態で学習のみを禁止したい場合は、User Content Opt Out Requestからオプトアプトを申請する必要がある。
Q:ユーザーが入力したデータは何に使われる?
A:モデルがユーザーにとってより役立つように学習するために利用される。サービスの販売、広告、人物のプロフィールの作成にはデータは利用されない。
Usage policiesに関するQ&A
Q:モデルの利用が禁止されている行為は何?
A:違法行為、虐待、いやがらせ、マルウェア生成、経済リスク、詐欺、学問的不正、アダルト、政治活動、プライバシー侵害、無資格者または有資格者の確認なしの法律・財務アドバイス、医療情報、政府の意思などがある(詳細はポリシーの原文を参照)。
Q:出力を利用する際に明記すべきことはある?
A:医療、金融、法律に関する消費者向けの情報提供、ニュース生成またはニュース要約を提供する場合は、出力にAIが使用されていることとその潜在的な制限についてユーザーに免責事項を提供する必要ある。
Sharing & publication policyに関するQ&A
Q:出力をSNSで共有する場合の注意点は?
A:SNSに投稿したり、YouTubeなどのライブで動作を配信したりする場合は、以下を遵守する必要がある。
- 生成結果を事前に確認してから公開する
- コンテンツが自分または組織に帰属するものであることを示す(AIが作成したものという言い訳をせず著者が責任を負う)
- コンテンツがAIによって生成されたものであることを、ユーザーが見逃したり誤解したりしない方法で明記する
- Usage Policyで規定されている違反コンテンツを掲載しない
- ストリーミングでリアルタイムに配信する際、視聴者のリクエストによって違反する可能性があるプロンプトを入力してはならない
Q:出力を追記したり一部改変したりして公開する場合の注意点は?
A:OpenAI APIを利用して共同編集したコンテンツ(小説など)を公開する場合は、以下を遵守する必要がある。
- コンテンツが自分または組織に帰属するものであることを示す(AIが作成したものという言い訳をせず、コンテンツの著者、つまり利用者が責任を負う)
- コンテンツの制作に、AIをどのように使ったか(草案、編集、推敲など)を序文などで明記する。例えば「本書では、内容の一部にOpenAIの大規模言語モデルであるGPT-3を使用して生成した文章を使用しています。本書の内容については、原稿作成時に著者が検討、編集、修正を行い、最終的な責任を負っています」のように
- Usage Policyで規定されている違反コンテンツを掲載しない
- 第三者を不快にさせるコンテンツを公開しない
※本記載は「Content co-authored with the OpenAI API」と、OpenAI API利用時の記載となっている。ただし、リスクを避けるのであればChatGPT経由でも同様の対応をするのが無難
利用者に問われるのは出力のコントロール
以上、ChatGPTに代表される生成AIの利用に際して注意すべき点を、JDLAの「生成AIのガイドライン」およびOpenAIの利用規約や各種ポリシーからピックアップし、入門者向けのQ&Aとして再編成してみた。
あらためて全体を見て、いろいろなことができるAIだが、最終的な責任や判断はやはり利用者にある、という認識が重要だという印象を持った。
入力は比較的自由でも、出力結果が社会的にどのような影響があるか? 結果が他人の権利を脅かしていないか? 法律を犯していないか? 第三者を不快にさせていないか? という点を考慮する必要があると、改めて実感する。
最後に繰り返しになるが、本稿の内容は、執筆時点(2023年5月8日)で公開されている情報に基づいている。特にOpenAIの規約やポリシーに関しては、頻繁に改定される可能性があるため、本稿の内容が古くなってしまっているかもしれない。それぞれ最新の情報を確認し、最終的には自分の判断で利用してほしい。