三田評論ONLINE

【特集:AIと知的財産権】
大屋雄裕:AIと悪と倫理

2023/06/05

生成系AIの生み出すもの

ところで、最近急速に技術的な進化を遂げたことが社会的にも注目され、多くの面で話題になっている生成系AI(generative AI)──特に文章などの情報を対話的に作成するChatGPT などの対話型AIについては、ハルシネーション(hallucination)という現象が生じることが知られている。本来は幻覚・幻影を意味する言葉で、ここでは事実や根拠に基づかないまったくの虚偽のことだ。

たとえば「大屋雄裕とは誰ですか?」という質問に対し、「1980年代にアメリカで活躍したプロレスラーです」といったように真実とはかけ離れた情報を堂々と──というのは文字によるプロンプトを通じた「対話」である以上こちらが持つ一方的な印象にすぎないのではあるが──回答として提示してくるという現象が知られている。しかも厄介なことに、その内容に対する出典や根拠を示せと要求すると、それらしい文献や情報源をリストにしてくることもある。だがリストに載っている文献自体も存在しなかったり、存在していても内容がまったく異なっているというわけだ。

もちろん対話型AIはこのようなハルシネーションに満ちた情報だけを回答してくるわけではなく、多くの場合にはそれなりに信頼できる、内容的にも正確な返答を生み出している。2023年3月にChatGPT の背後にある言語モデルを最新版のGPT-4に更新したところ、アメリカの弁護士試験(Bar Exam)の模擬試験問題に対して受験者の上位10%に入る成績を修め、現実の試験であれば合格する水準に達したとも報道されている。

繰り返すが、ここで指摘されるべきなのはだからこそ問題なのだ・・・・・・・・・・ということである。ChatGPT は、一定の場合に非常に高水準の、真実によく対応した回答を提示し、一定の場合にそうではない、まったく誤った情報を返してくる(ハルシネーション)。だが現時点において我々は、後者のような問題事例がいつどのように起こるかを予測することができないし、自分自身が十分な知識を持たない限り、いま起きているのがどちらであるかを確定することもできない。

たとえば大屋雄裕について筆者自身が質問するように利用者自身が一定の知識を持ちながらあえて・・・尋ねた場合には、回答の真偽を確認することも容易だろう。しかしこれは対話型AIの性能を確認するといった限定的なケースであるにすぎず、一般的に人は自分のよく知らないことを検索するのだし、読めない言語による文章を自動翻訳させたり、描けない絵を生成しようとするだろう。知識・能力においてAIの方が優位にあるから我々が一定の行為を委ねようとしているのだとすれば、それは、AIの成否を我々が判別できないのが通常になると覚悟する必要があるということを意味しているのではないだろうか。

さらに言えば、先に指摘したようにAIが精神の働きとその生み出すもの──意図や動機を持たない以上、行為者にとって有利な状況か不利な情報かといったような推測手段を用いて情報の確からしさを評価することもできないのである。堂々と・・・という印象も同様だろう。一般的な対話において我々は、たとえ文面としては同じ表現であってもその質問や発言が誰によって、どのような状況でなされたかという文脈を考慮に入れている。「過失とはどういう意味ですか」とニュースの流れているラーメン屋で居合わせた客に尋ねられたなら、一般的にはこうだという辞書的な説明をするだろう。だがゼミで刑法の教授に聞かれたとすれば? 我々は相手の立場からして一般的な内容を知らないはずはないと考え、にもかかわらず・・・・・・・尋ねるからには何らかの意図が──確認なり皮肉なり糾問なり──あると推測し、不安に脅かされながら返答をひねり出すだろう。AIはこのように、発言の帯びる一定の行為性(発話内行為)を理解しておらず、人間らしい・・・・・反応を示さない。このこともまた、判別の難しさに寄与することになるだろう。

我々はいままさに、一定の割合で地雷が埋まっている宝の山へと分け入ろうとしているのだと言うべきではないだろうか。

亜人類・超人類・異人類

倫理学の伝統的な問題の1つは、我ら人類の特権性がどのように根拠付けられるかという点にある。なぜ犬や猫には人権がなく、我ら人類の一個体として生まれたら、そのことだけで一定の権利が保障されるのだろうか。我々と彼らを分かつものがあるとすれば、それはどのような属性なのだろうか。

かつて指摘したことであるが、伝統的に我々はここで動物を比較対象として想定した上で、我ら人類が彼らと比較して優れている属性を探しては、それを我らの人権享有主体性の根拠と主張することを繰り返してきた(「外なる他者・内なる他者─動物とAIの権利」『論究ジュリスト』22号(有斐閣、2017年))。典型的には理性や言語の使用といった要素がそれに当たるだろう。動物は我々と共通性を帯びつつ、ある部分で人間に及ばない亜人類(subhuman)だと想定されているわけだ。

だが現在、我々が直面している生成系AI・対話型AIはそのように伝統的な人間の条件・・・・・において、平均的あるいは一般的な人間をはるかに凌駕する水準に達しようとしている(一般的な知性を持つ人間であればアメリカの司法試験に合格できるというわけでは、まったくないだろう)。しかもそれは死ぬことがなく、学習した内容を忘れることもなく、経験を蓄積しさらなる高みへと進化していくだろう。このようなAIが超知性(superintelligence)と呼ばれる段階に到達することによって、人類は存亡リスク──知的生命の全滅ないし発展可能性の永久的な消滅──に直面すると指摘したのが、ニック・ボストロムであった(倉骨彰(訳)『スーパーインテリジェンス─超絶AIと人類の命運』日本経済新聞出版社、2017年)。

だが筆者は、AIの将来の姿は動物と人間を置いた直線の延長上に想定される超人類(superhuman)──単線的進化の上で人類より優越した存在──ではなく、むしろ根本的に異なった存在としての異人類(althuman)にあると理解している(「AIにおける可謬性と可傷性」宇佐美誠(編)『AIで変わる法と社会─近未来を深く考えるために』(岩波書店、2020年))。犬や猫ですら、禁止されているはずの行為を目撃されるなど後ろめたさ・・・・・を感じているときには、その証拠を隠すとか目をそらすといった内心の感情を示す行動を取る(あるいは我々がそのように十分理解できる行動を示す)例が多く知られているだろう。そのような内面の意識や意図を持たないこと、そのために行動の整合性(integrity)について想定することができない点にAIの特徴があり、その意味においてAIは我ら生命とは根本的に異なる何か・・・・・・・・・なのだと考えた方が適切だろう。

共存に向けて

我々はこのように根元的な他者と直面し、だがそれが与えてくれるだろう利便性を前にして、それとの共存を選び取ろうとしている。AIを活用することによって、社会生活のさまざまな局面における効率性が向上したならば、それは同じだけの幸福を生み出すために必要となる資源が少量で済むということ、したがって地球環境をそれだけ毀損せずに済むことを意味するだろう。持続可能な社会というあり方を世界人類の共存の枠組みとして模索している我々にとって、このようなAIのもたらす恵沢を断念するという選択肢は、倫理的に正当化しがたい。だからこそ、どのような形で両者の共存をコーディネートし、互いの長所を組み合わせた社会を作り出すことができるかということが、今後のAI倫理において問われる問題となるに違いない。

そもそもAI倫理とは、AIが備えるべき倫理ではなく、AIに関する倫理を問い、AIに関係する人間行動について評価・指示する枠組みを提供しようとするものであった。そのことは、動物倫理が動物に対して一定の行為原則を提示しようとするものでないことを考えれば明らかだろう。問題はAIに対して我々がどのような態度を取りどのようなガバナンスのもとに置くかということなのだ。

そしてそのような問題について議論していくために我々が第一に目指すべきなのは、AIが生み出したものを我々自身が我ら人類の成果と区別して認識し、評価し、場合によっては排除することができるような枠組みを、法的・技術的に確立することだと言うべきではないだろうか。AI生成物をそれと認識することができなければ、ハルシネーションのようにそれが内包し得る問題について議論することも、それを排除するための手法について検討することもできないだろうからだ。

すでにEUにおいて、生成系AIによって作られた情報にその旨を表示すべきことを義務づけるべきだという議論が、包括的なAI規制法案の一部として提案されるようになっている(たとえば「EU、生成AIに表示義務づけへ」朝日新聞、2023年4月29日)。誰が、どのような形で、どのような学習成果に基づいて生成系AIに情報を生み出させたかということが適切にトレース可能になり、その結果に対する評価に基づいて、社会的なガバナンスの枠組みを構築することが、現在のAI倫理における最大の課題だということができるだろう。

※所属・職名等は本誌発刊当時のものです。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事