三田評論ONLINE

【特集:AI 社会と公共空間】
人を評価する人工知能が人間同士の関係に与える影響とその倫理的含意

2019/02/05

6 メディアとしてのテクノロジー

テクノロジーは人間と世界との間の「媒介(メディア)」、あるいは「インターフェース」であるという考え方がある。すなわち人間はテクノロジーを介して世界を知覚、認識、解釈し、そしてテクノロジーを介して世界に働きかける。この意味では、テクノロジーは私たちの認識能力・行動能力の一部である、ということができる。だとすればテクノロジーが変化するということは私たちの世界認識の仕方が変わるということであり、そして私たちの世界への働きかけ方が変わるということである。一般にテクノロジーは私たちが世界をよりよく知ることを可能にし、そしてこの世界を効率的に利用することを可能にする。

ICTが進歩し、テクノロジーが高い自律性を獲得しつつある現在、私たちと環境世界・他者との関係は大きく変化しようとしている。これまでは、世界の中でよりよく行動するためには、私たちは世界と他者についてよりよく知ることが必要だった。ICTの発展、特に人工知能やロボット技術の発展によって私たちはもはや環境世界と他者について詳細に知ることなしにそれらに効率よく対処することができるようになる。ICTは私たちに情報をもたらすのではなく、むしろ私たちを外界の情報に触れなくさせるスクリーンのように機能するのである。今後、私たちの世界認識、そして世界への働きかけはますますテクノロジーに依存するようになるだろう。しかしその時、私たちと世界、私たちと他者との間の物理的心理的な距離は際限なく広がってしまう可能性がある。

このことの倫理的な含意は重要である。なぜなら心理的な距離が私たちの道徳的判断と行動に影響を与えるということが心理学の研究によって明らかにされているからである。例えば心理的な距離が広がれば私たちは他者に対してより寛大でなくなり、自己の利益に基づいた思考が促進される。

前節で述べたように、人工知能による人間評価システムが社会の多くの場面で使われるに従って、ますます私たちは他者を機械可読なデータの束として捉え、自分にとっての潜在的な損害と利益のソースとして考えるようになるだろう。しかしこのことは他者との間に築くことができるかもしれない人間関係を厳しく限定する。「囚人のジレンマ」ゲームが示すように、自己利益と相手への疑いからスタートした人間関係を、相互の信頼と協力の関係へともたらすことは難しい。

だが人間同士の関係はもっと豊かな可能性に開かれている。人間の性格というのは必ずしも機械によって客観的に測れる固定されたものではない。それは人間同士の相互作用の中でダイナミックに変化していくものである。人間は信頼されればその信頼に応えようと努力する。つまり相手を信頼することが要因となって、本当に相手が信頼に足る人物になることがあるのである。あるいは単に頻繁に顔を合わせるだけで好意が生まれることもある。そしてそうやって生まれた信頼や好意に基づいた協力関係がお互いに利益をもたらし、そのことがさらなる信頼と好意を促進させる。だがこのような良い人間関係を促進するサイクルは、ウェブ上で入手できるデータに基づいた自動評価システムからは始まりにくいだろう。

おわりに

人間を評価することにおいて、ビッグデータや人工知能を無思慮に使用することは、他者をコンピュータが処理できるデータの束として扱い、そしてより効率の面から捉えることを促進する可能性がある。また人工知能はそれを開発した人間や社会の持つバイアスを反映し、それを固定化・強化する効果を持ちうる。さらにビッグデータと人工知能は特定の集団にネガティブなラベリングをすることで新たな差別の種を生み出してもいる。

現状において人工知能はしばしば社会的弱者に不当な不利益を与えたり搾取したりすることで大きな利益を上げるような使われ方をしている。その一方で人工知能は、苦しんでいる社会的弱者を可視化し救済することを助けるためのツールとして活用することもできる。人工知能の応用について考える際には、それがどのような目的で作られ、どのような副作用をもたらすのか、誰に利益をもたらし誰を踏みつけにするのか、ということを考えることが肝要である。

〈註〉
i)「人工知能」という言葉は、技術的プロダクトを指して使われる場合と、そういったプロダクトの研究・開発を行う分野を指して使われる場合がある。本稿でもこの言葉をそのような両義的な意味で使用する。

〈参考文献〉
(1)村上祐子、「人工知能の倫理の現在——研究開発における技術哲学・倫理の意義」、IEICE Fundamentals Review, 11(3), pp. 155-163, 2018年。
(2)J. Kaplan, Artificial Intelligence: What Everyone Needs to Know, Oxford University Press, 2015.
(3)キャシー・オニール、『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』、久保尚子訳、インターシフト、2018年。
(4)A. Kofman, “Dangerous junk science of vocal risk assessment”, The Intercept, November 25, 2018.
https://theintercept.com/2018/11/25/voice-risk-analysis-ac-global/
(5)穴瀬博一、「「AI裁判官」は全然公平ではなかった! 人工知能裁判のお粗末な実態」、『るいネット』、2018年8月12日。
http://www.rui.jp/ruinet.html?i=200&c=400&t=6&k=2&m=338047
(6)河鐘基、「アマゾンの人材採用AIが「女性を差別した」理由を考えてみる」、Forbes Japan' 2018年10月16日。
https://forbesjapan.com/articles/detail/23419
(7)久木田水生、「遠隔戦争の論理と倫理」、『αシノドス』、Vol. 257+258、2018年。

※所属・職名等は本誌発刊当時のものです。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事