三田評論ONLINE

【特集:AI 社会と公共空間】
人を評価する人工知能が人間同士の関係に与える影響とその倫理的含意

2019/02/05

  • 久木田 水生(くきた みなお)

    名古屋大学大学院情報学研究科准教授 専門分野:言語哲学、技術哲学

1 はじめに

近年、人工知能(artificial intelligence; AI)が様々な場面で実用化されるにつれて、その社会的影響についての懸念が高まっている。そしてそれに伴って人工知能に関する倫理についての議論も国内外で、そして様々なステークホルダーを巻き込んで、盛んになっている(1)。そこで問題にされるのは人工知能の安全性・制御可能性、透明性、アカウンタビリティ、格差・公平性への影響、人権や人間の尊厳などである。本稿ではこういった問題に加えて、人工知能の利用が人間同士の関係に対して与えることが懸念される影響とその倫理的含意に焦点を当てる。

2 人工知能とは何か

人工知能 i)の倫理的問題について考えるためには、大雑把にでも人工知能というものを特徴づけておく必要があるだろう。しかしこれは中々、難しい課題である。「人工知能」という研究分野を創始したジョン・マッカーシーらは、人工知能の課題を「人間が同じ振る舞いを示したならば知的であると考えられるような振る舞いを機械にさせること」と特徴づけた。しかし私たちが何を「知的」と見なすかは必ずしも明確ではない。かつ人間にとっては「知的」と見なされないような振る舞いでも、人工知能分野における重要な達成と見なされるものもある。例えば人の顔を見分けるとか、物を摑んで拾い上げるといったことがそうである。

「知能」の概念に基づいて人工知能を特徴づけることは、「知能とは何か」、あるいは「知的であるとはどういうことか」という極めて答えることが難しい問題にぶつかる。ここではジェリー・カプラン(2)にならい、そのような問題を回避して、人工知能を、単なる「絶え間ない自動化の進歩」であると考える。このように考えたとき、人工知能の倫理的問題とは、「これまで自動化されていなかったことが自動化されることによって新たに生じる倫理的問題」と捉えることができる。

しかしこのように人工知能を特徴づけると、その実例はあまりに多岐にわたり、それらを十把一絡げにして論じるのは無理がある。そこで本稿では特に「人間を自動的に評価・判断・分類するシステム」に焦点を当てる。

3 人を評価する人工知能

現在の第3次人工知能ブームを駆動しているテクノロジーの1つは深層学習に代表される機械学習である。機械学習は典型的には大量のデータの中から人間では見つけることのできない微かなパターンを見つけ出し、対象を識別・分類・類型化する。このテクニックによって、例えば大量の画像の中から猫が映っている画像とそうでない画像を区別するというような識別タスクの自動化が可能になった。猫の画像ならば人間でも見分けがつくが、人工知能は人間よりもさらに優れた識別能力を発揮することもある。例えば将棋や囲碁などのゲームにおいて、人工知能は与えられた盤面を人間のプロ棋士以上に的確に評価できるようになっている。

しかし現在の機械学習が最も大きな力を発揮している(すなわち、それを使用する人々に最も大きな利益をもたらしている)のは人間の類型化と行動予測においてである。どういう人間がどういう需要や選好を持つか、どういう人間がどのような行動傾向を持つかということを高い精度で知ることは、ビジネスにおいて極めて重要である。ビッグデータと人工知能はこの用途において極めて有用なテクノロジーであることが分かった。インターネット、そしてスマートフォンなどのモバイルテクノロジーの普及によって、現在、人々のオンラインでのあらゆる活動、そしてますます多くのオフラインでの活動についての大量の機械可読なデータが取得・記録・保存されている。そして機械学習のテクニックが発達したことで、そのデータから人々の需要や選好や行動の傾向、パターンが抽出できるようになったのである。それゆえに大量のデータを所有している巨大IT企業はより適切なタイミングで適切なターゲットに適切なアクションを取ることが可能になった。そしてそのことが彼らに莫大な利益をもたらしている。半世紀にわたる人工知能の歴史において、初めて人工知能がビジネスにおける大きな成功を支えるテクノロジーになった。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事