三田評論ONLINE

【特集:AIと知的財産権】
新保史生:生成AIとAI規制

2023/06/05

4. 生成AIと法的課題

生成AIをめぐる法的課題については、これまでの議論では対処できない課題など、どの程度想定外の問題が発生する可能性があるのか、今後の生成AIの機能の拡張や新たな利用方法の案出次第のところもあるため、現時点では評価できない側面があるのは事実である。しかし、今後の具体的な規制や規律を考える上で想定される法的課題はある程度把握しておく必要がある。あくまで例示的・想定的な列挙でしかすぎないが、以下のような問題を考えなければならないであろう。

なお、インターネットの普及以降、情報法の分野で新たな技術やコミュニケーション手段が登場するたびに、著作物の利用をはじめとする知的財産権と個人情報やプライバシーの権利をめぐる問題が先行して議論されてきている。情報法からロボット法と称する新たな分野が登場しても、知財と個人情報関係の議論がやはり最初に議論の俎上にあがってきた。生成AIをめぐる法的課題に関する議論も、これまでの議論の過程と同じことを繰り返す様相を呈していることから、新興技術の登場において知財・個人情報の問題は避けて通ることができない問題であることを再認識している。

生成AIの利用と法的課題の類型的な試行錯誤の端緒として、以下の点を列挙しておきたい。

(1)民主主義への影響
(a)統治機構(立法、司法、行政)における意思決定や判断への影響、(b)選挙、公職候補者への影響、政治利用に伴う問題。

意思決定や判断にあたっては、先例や必要な膨大な情報を調査する必要があるため、立法、司法、行政のいずれの分野においてもAIの活用は明らかに有用である。しかし、最終的な判断にまでAIが関与することになると、人間による諮問機関同様の位置付けでよいという考えもあるかもしれないが、AIの判断が正しいかを人間の側で判断することができないが故に、人智を超える問題についてその判断が正しいのかさえ判断ができなくなるおそれがある。

(2)表現活動への影響
(a)コミュニケーションの変化と表現活動の変化、(b)バイアス、差別、表現活動における公平と公正の担保、(c)知る権利への影響、(d)知的活動そのものへの影響(知性、知識、知見の区別の必要性)、(e)生成AIへの依存による表現活動・思考の停止。

生成AIに問い合わせるだけで、膨大な情報から必要な情報をピックアップしてもらえるだけでなく、人間の知的活動をも補完する情報を出力するため、情報の検索だけでなく、その分析・論点整理や様々な創作活動も含めてAIに依拠することとなる。その結果、生成AIの将来的な普及により、我々の知性がその利用によって高められるのか、それとも過度に依存した結果、思考停止に陥り知性は失われていくのか。一律にどちらの方向に向かうということではなく、生成AIを利用する側のリテラシーであったり、利用方法や利用意識によっていずれの方向になるのか変わっていくと考えられる。

生成AIの利用は、出力結果の精度が高まることによる正確性の向上とともに、期待通りの回答を得られるかは、AIにその回答を導き出しやすいように問いかける質問能力も問われることになる。つまり、これまでの情報リテラシーに加えて、AIとのコミュニケーション能力が問われることになる。

(3)知的財産の保護
(a)生成AIによる創作(出力)と成果物(情報)の保護のあり方、(b)生成AIの利用と著作権、商標権、意匠権をはじめとする知的財産権に係る課題。

冒頭に紹介したJ・S・ミルの書籍は「大学教育」を問うものであるが、生成AIの利用は大学における教育のあり方に大きな変革を及ぼすことになる。例えば、レポート課題の剽窃の問題を考えてみると、生成AIを利用した文章作成が剽窃にあたるか否か(生成AIの利用そのものの問題)、剽窃を問われた学生が生成AIを利用していないにもかかわらず、生成AIを利用した文章であると主張する場合(生成AIへの責任転嫁)、友人から入手した参考資料の文章が、生成AIによる文章であることを知らずに利用して剽窃を指摘された場合(善意の第三者による違法・不正行為)など、どのように判断すべきか今後の検討課題となるであろう。

(4)個人の人格的利益の保護(個人情報、プライバシー、肖像など)
(a)個人情報の取扱環境の変化(データ保護の困難性)、(b)本人が不知・不識のうちに取り扱われる個人情報の保護のあり方、(c)機微な情報を取得していないにもかかわらず事後的に要配慮個人情報を推知できる可能性が高まることなど、個人情報保護やプライバシーの権利の保障をはじめ個人の人格的利益保護のために検討が必要な議論は多岐に渡る。

注目すべき判断として、イタリアのデータ保護機関がEU(欧州連合)のGDPR(一般データ保護規則)違反を理由にChatGPTの利用禁止を発表し、その開発主体であるOpenAIが透明性の確保と権利保護について実施する対策を回答した結果、2023年4月28日にその決定が解除されている。OpenAIが公表した対策は、オプトアウト(個人データの利用を停止すること)について、ユーザがその手続を行う権利を有することを確認し、その実施に必要な説明をプライバシーポリシーに記載するとともに、オプトアウトを要求できるフォームを導入し学習データやチャット履歴からの除外を可能にすることである。一方で、正確性の確保については、不正確な情報を修正することが技術的に不可能であることを明記し、ChatGPT の回答における個人情報の正確性の確保は担保できないことをユーザ側が理解して利用することを説明しているにすぎない。

また、利用者が入力する個人情報についてはオプトアウトとともに正当な利益(legitimate interests)に基づく取扱いを行うとしている。生成AIに係るデータ保護の問題として検討すべき事項の一端が明らかになったといえる。

(5)違法・不正利用の把握と対処
生成AIの適正利用の境界設定は困難になるであろう。犯罪などの違法行為だけでなく、不正行為の助長・幇助ツールとしての生成AIの利用をどのように防ぐのかという課題は慎重に対処方法を検討しなければならない。

生成AIの利用行為そのものが違法である「生成AI利用型犯罪・不正行為」と、既存の違法行為を実行するための支援ツールとして生成AIを利用する「生成AI関連型犯罪・不正行為」への対処が課題となる。前者の例としては、「プロンプトインジェクション」のように、生成AIに悪意のあるプロンプト(指示テキスト)を入力して不正利用する攻撃手法。後者は、コンピュータ・ウィルスの作成や爆発物の製造方法の指南を受けたり、既存の犯罪を実行するために生成AIを利用する行為があげられる。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事