【特集:AI 社会と公共空間】
座談会:AIネットワーク化の中で、自由で公平な社会をどうつくるか
2019/02/05
-
小林 史明(こばやし ふみあき)
衆議院議員
自由民主党青年局長代理、行政改革推進本部事務局長。第3次、第4次安倍改造内閣にて総務大臣政務官兼内閣府大臣政務官として電波、通信、情報改革、マイナンバー政策に注力。NTTドコモ勤務を経て2012年衆院選に初当選。
-
荒井 ひろみ(あらい ひろみ)
理化学研究所革新知能統合研究センター研究員
東京工業大学大学院総合理工学研究科知能システム科学専攻単位取得退学。博士(理学)。東京大学情報基盤センター助教等を経て現職。JSTさきがけ研究員兼任。専門はプライバシー保護技術、データマイニング等。
-
泰岡 顕治(やすおか けんじ)
慶應義塾大学理工学部機械工学科教授
特選塾員。1997年名古屋大学大学院工学研究科 応用物理学専攻博士後期課程修了。博士(工学)。2010年より現職。慶應義塾大学グローバルリサーチインスティテュート副所長。専門は分子動力学、化学物理。
-
山本 龍彦(司会)(やまもと たつひこ)
慶應義塾大学大学院法務研究科教授
塾員(1999法、2005法博)。博士(法学)。桐蔭横浜大学法学部准教授を経て現職。慶應義塾大学グローバルリサーチインスティテュート副所長。専門は憲法学。著書に『おそろしいビッグデータ』『AIと憲法』(編著)等。
AIネットワーク化と日本の現状
山本 今日は人工知能(AI)を組み込んだネットワーク社会と公共空間との関係について様々な分野の方々と討議していきます。
「公共空間」の定義はそれ自体難問ですが、ここでは、自由なコミュニケーションのために開かれた非排除的な空間、インクルーシブな空間をイメージしています。そうすると、本座談会の主な論点は、AIネットワーク化の進展は社会的な「排除」をもたらすのか、「包摂」をもたらすのか、この点で日本はどのような方向に舵を切ろうとしているのか、にあります。
例えば、現在、中国はAIの顔認証技術を使った監視カメラネットワーク「天網」を張りめぐらせている。信号無視したのが誰か、すぐ分かる。これにより治安がよくなったという声がある反面、政治的な批判の萎縮を招いたり、自由で開かれたコミュニケーションがますます失われたり、といったマイナス面も指摘されています。
また、同じ中国の「芝麻信用(セサミ・クレジット)」というアリババグループ傘下の信用情報機関はAIを使って、個人の電子決済記録や資産状況、SNS上の交友関係などから人の社会的信用力を950点満点で「格付け」し、その点数、つまり信用スコアが官民で広く共有・利用されています。スコアが高い人にとっては、低金利で住宅ローンが組めたり、デポジットなしで家を借りられたり、婚活が上手くいったりして大変有意義です。
しかし、無視できないのは、スコアが低い人の生活です。彼らは融資を受けづらくなったり、就活でハンデを負ったりするだけでなく、飛行機のチケットを買えなくなるとか、外国ビザを取りにくくなるなど、移動の自由も事実上制限されます。ロースコアだと差別的な扱いを受け、社会参加の機会が損なわれる恐れもある。しかも一旦低いスコアをつけられると「負のスパイラル」に陥る。これは、AIによる人間の格付けが、かつてない階層社会を引き起こして「公共空間」とは真逆の排除的空間を創り出す可能性を示しています。
座談会ではまず日本の現状について議論してみたいと思います。政府は、「Society 5.0」などでAIネットワーク化を推進していますが、公共空間に与えるネガティブなインパクトがそれほど議論されていないといった印象を受けます。もちろん、総務省の「AI利活用原則案」や政府の議論では、「人間中心」とか、「インクルーシブで多様な社会」が謳われており、それ自体は非常に高く評価できる。しかし、具体的な議論がいま一つ詰められていないといった印象です。
こうした状況は、例えばEUやアメリカと比較するとどうなのか。荒井さんは国際会議などにもよくご出席されていますが、どのような印象をお持ちでしょうか。
荒井 機械学習など技術分野の会議においてですが、こういったAI応用にまつわる問題についての関心は非常に高いと受け取っています。分野横断的に、社会学や産業界など様々な分野の人を呼んでパネルディスカッションを行ったりすることもしばしばあります。
比較すると日本ではそこまで多くのアクションはないようにも思います。
山本 日本でも形だけ分野横断的な会議はありますが、それとは違うということですか。
荒井 例えば国際会議でシンポジウム以外にもそれらにまつわるトピックの論文数など、研究対象としての盛り上がりにも多少違いがあるかと思います。特にアメリカですと、「抗差別」ということには皆さん関心が高い。
山本 やはり人種差別の問題があるからですかね。
荒井 そうですね。企業の側の関心も高く、昨年のFAT*(ACM Conference on Fairness, Accountability, and Transparency)という、機械学習や法学など様々な分野を横断して公正さなどを取り扱う会議では、顔認識アプリの黒人女性の識別精度が低い、という報告があると、企業がレスポンスをして、精度を改善したという報告がありました。研究者のアクションに対して企業も応えてくれるケースもあったという事例です。
顔照合とそのリスク
山本 なるほど。若目田さん、企業のお立場からはいかがでしょうか。
若目田 日本は確かに人種差別など人権に対するセンシビリティは欧米ほど高くはないと思います。
米マイクロソフトは、先日、顔認証技術について、人種差別の助長やプライバシーの侵害などの恐れから、「各国政府は規制を厳しくすべき」との提言を公表しました。続けてグーグルは、悪用されることを避けるため、課題が払拭されるまでは、顔認証の汎用API(アプリケーション・プログラミング・インターフェイス)の提供を停止することを発表しました。顔認証技術が、ややクローズアップされ過ぎている傾向はあると感じますが。
山本 顔照合に注目が集まる背景には何があるのでしょうか。
若目田 アメリカにおいては、やはり、有色人種、移民、宗教的マイノリティなど人種差別に対するセンシビリティが高いことが、クローズアップされる理由でしょう。「公共空間で特定の人物であることが機械的に把握できる」という顔認証技術に対し、特に法執行機関が活用することに対する危惧が大きいと思います。
欧州では、世界的に有名なサッカー大会であるUEFAチャンピオンズリーグの試合で、顔認証技術を活用し、特定の犯罪者を群衆の中から探し出す取り組みが行われ、実際に成果が上がりました。何万人もの歩行中の群衆を、離れたカメラで撮影し照合する高度な使われ方であり、「本人である確率」に基づきアラートを上げる仕組みです。
山本 あくまで確率なのですよね。
若目田 細かくは承知しておりませんが、自動的に特定するのではなく、あくまでも人の目、人の判断を前提に行動する運用と思われます。しかしながら、この事例に対しては、ある人権団体から人権上の懸念が示されました。
山本 確率で判断されるから、常に誤判定のリスクがあるということですね。
若目田 どんなに精度の高い製品であっても、様々な環境条件により、常に100%の精度が保証されるものではない点は事実です。この点を顔認証技術の特性と正しく理解し、リスクに対する運用の工夫など、人権に配慮することが求められるわけです。
カメラを用いた顔認証活用については、もう一点技術的な宿命があります。それは、照合すべき対象の人物だけではなく、カメラのフレームに入ったすべての人物を対象に、一時的に顔データ(顔特徴量という本人を識別する符号)として取得することです。この識別符号に基づき、データベースとマッチングする仕組みですので、マッチング対象でない人物のデータは速やかに削除する機能を組み入れるなど、技術の特性を認識した上で、人権、プライバシーに配慮することが重要です。
速やかに削除するといっても、カメラのフレームに入る他の対象の顔情報を取得するという事実は変わりません。これら技術的な制約やリスクを事前にきちんと説明した上で、そこから得られる便益(例えば市民の安全)とのバランスについてコンセンサスを獲得する努力を怠ってはなりません。
2019年2月号
【特集:AI 社会と公共空間】
カテゴリ | |
---|---|
三田評論のコーナー |
若目田 光生(わかめだ みつお)
日本電気(NEC)デジタルトラスト推進本部主席主幹
(一社)データ流通推進協議会理事。上智大学文学部卒業後、NEC入社。2013年全社ビッグデータ事業、18年デジタルトラスト推進本部を立ち上げる。慶應義塾大学グローバルリサーチインスティテュートにて共同研究。