三田評論ONLINE

【特集:AI 社会と公共空間】
座談会:AIネットワーク化の中で、自由で公平な社会をどうつくるか

2019/02/05

スコアリングの使い方と説明責任

若目田 視線の動きで何を見たかを捉える、例えば本棚のどの本に関心を示したかを把握し、その人の趣向を推知する技術があります。書店でどの本に関心を示したかというのは、場合によっては思想や信条が導き出されるかもしれませんし、チラッと見るというのは、自分でも気づかない内面かもしれず、使い方によってはかなりセンシティブです。それが、自分のIDと紐付けされたとしたらいかがでしょう。

でも、列車の運転手の視線の動きにより、どういうところを注視して運転しているかを捉える技術とすれば、継承すべきスキルの可視化、不注意による事故の抑止など、社会課題の解決につながります。つまりは、目的と倫理観に基づいた要件定義次第ということではないでしょうか。

スコアリングというのも、例えば自動車の運転能力もスコア化し、若い頃とはどう違うか、もしくは、昨日と今日でどう違うかということが分かってくれば、それに対する運転の補助ができるわけです。

「認知症になったら免許を取り上げます」という単純な判断ではなく、その人の運転履歴を長い間、正確に捉えて、今日は疲れているようだからここを補ってあげようと判断してくれるとしたら嬉しいですよね。

山本 なるほど。それこそ「人起点」の使い方かもしれません。年齢や診断で一律に、カテゴリカルに排除するのではなく、その個人の具体的な特性や傾向を予測してパーソナライズ化された対応をとる。憲法のいう「個人の尊重」にも資するAIの実装のように思えます。もちろん、そのためには長期間その個人のデータを取っておく必要があり、プライバシーとはトレードオフになるかもしれませんが、収集範囲を説明したり、目的外利用を防ぐような措置を講じたりしておけば、それもある程度抑えられる。

企業の採用も、人間のバイアスのせいで、今までカテゴリカルに排除されていたような人が、AIを使ってインプットを多様化することでかえって包摂されるかもしれません。障がい者についても、従来の人間による採用だと、ステレオタイプ化されたイメージからその要素が全面に出てしまい、採用が難しくなるかもしれませんが、AIだと、障がいという要素は客観化・相対化され得る。

課題は説明責任ですかね。それでも不採用になる人はいるわけで、そういう人にどう説明できるか。人間が採用していた時代でも不採用の理由は基本的に説明してこなかったわけですが、評価に使ったインプット情報が限定されていたので、「説明されなくても言わずもがな」、みたいな世界だった。

でも、今後AIになって、インプット情報が多様化すると、自分のどの行動が不採用につながったのかが分からなくなる。ある企業の採用アプリでは、志願者が質問に答える際の指の動きまで収集しているわけですね。そうなったとき、「説明しない」ということの持つ意味が、これまでとは大きく変わってくるかもしれない。AIを使った採用の場合、インプット情報やアルゴリズムがブラックボックスになるので、不採用とされた者はその理由が分からず途方に暮れてしまう。這い上がる機会を持てずに社会の下層で固定されることもあり得ます。いわゆるバーチャル・スラムの問題ですね。

AIによるインクルーシブな社会の実現と言ったときに、一定の説明責任が必要とも思うのですが、そのあたり技術的にはいかがでしょうか。

荒井 例えば、ディープラーニングとか複雑なモデルをどうやって説明するかという研究があるのですが、そこでの課題の1つに、説明をする際に人間が理解できるものというのは限定されているので、情報を落とさないといけないということがあります。

そのことによって実際に動いているものとの差が出てきてしまったり、逆にモデルの精度を落としてしまうことになる。そうなると、例えば営利企業だと精度を落とすことを許容できるのか、または精度を落としたものによる説明が正しいのかということがあります。

また、説明はいろいろな観点からできると思うのですが、それを人間が受容するかどうかです。説明しても、受け取り手の知識や意図と反していることもあり得ます。その場合、結果を受け入れたり利用したりすることができるか。そこがなかなか難しいところだと思います。

小林 政治の世界も感情と理屈、まさに情と理でバランスを取りながらやっていて、「あの人が言うから、一度乗っかってみよう」と言ってもらえるかどうかというのは、政治家の力量が問われるところです。対立が起こったときに、信頼して歩み寄ってもらえるか。最後に人を説得するとか、人を励ますというところの納得感は、人にしか出しづらいところがあると思うんです。

なので、AIの判断を人間が受容できるかという話に戻すと、AIは画像などビッグデータを元に相当精度の高い分析結果を提示できるが、それだけでは納得しづらい、受容できないこともある。そこは専門家、例えば医療現場であればお医者さんが説明する、面接結果について最後は人事担当者が説明をするということが、まさに情と理の付き合い方、技術と人間の付き合い方ということになるのではないかと思います。

山本 なるほど。EUのGDPR(一般データ保護規則)も、AIの判断のみで採否や融資決定を行う場合には、人間の介在を得る権利や、判断の重要部分について説明を受ける権利を保障しなければならないとあります。

AIによる排除的社会を防ぐには、こうしたEUの「説明を受ける権利」をどのように日本が取り込むかが重要なポイントになりそうですね。

「AIのほうが良い」のか!?

荒井 扱わないといけない情報の量が増えているので、情報技術を使うのが不可避な場面があると思っています。医療画像診断などはデータが増えすぎていて、オートマチックなデータ処理による現場のサポートの必要性も指摘されています。

私の考えとしては、診断のサポートとして、プロをまねたAIを取り入れるのはいいことだと思う。でも、それをきちんと患者さんのところまで持って行くというのはお医者様の仕事であると思います。

若目田 政治の世界が「あの人が言うのだから、しょうがない」というところ、まさに信頼感、納得感が力量という点、なるほどと感じました。

同じように、AIが社会に浸透してきたら、例えば、「NECが提供しているAIサービスなのだから、いいんじゃないか」といった、デジタル社会における信頼感、納得感が、結果的に差別化要素になることを目標にしたいです。

山本 そのような信頼の醸成が1つの企業価値になってくるということですね。

若目田 ちょうどこの間、漫画家の倉田真由美さんを交えたシンポジウムを開催したのですが、自分は「AI弱者」だと言っておられた。何の前提もなしにAIに対するユートピアとディストピアを言ってもらったところ、「いろいろなお医者さんがいるが、名医かどうかで診断結果に差異が出るのは嬉しくなく、どんな小さい病巣も見逃さず誰に対しても同じく適切な診断をしてくれるAIに期待する」とコメントをいただきました。

また、企業の採用などでのAI活用も、「本人も思いつかない可能性が発掘されるのであればとてもいいことではないか」とのことでした。

山本 私もこの前ゼミ生に、あなた方が就活するときにAIに採用されたいか、人間に採用されたいかと聞いたら、ちょうど半々ぐらいでした。

今後はAIに判断されたほうが、かえって信頼できるという世界観もあり得るわけですよね。AIのほうが自分を正しく見てくれていると。

若目田 でも、同じアルゴリズムだと、皆、ステレオタイプの同じ人ばかりの会社になりそうで怖いですよね。

小林 そういうことを企業が考えることになるのではないかと思います。私もドコモ時代、人事採用担当をやっていたのですが、昨年はこういう人材、今年はこういう人材と目標をずらして面接官も代えるんです。そうしないと、バイアスがかかってしまうから。

荒井 そうですね。それもAIでやるとしたら、ダイバーシティをこれくらいのレベルにして、という感じで設計すれば、できると思います。

山本 ダイバーシティの設定をすればAIの判断もそれなりに上手くいくとなると、例えば政治や裁判における意思決定もAIに代替したほうがよい、という話になっていくのではないか。その場合に、「人間中心」の意味とは何か。

荒井 AIを信頼するということについてですが、人間というのは割と面倒くさがり屋で、よきに計らってもらえれば、説明を細かく確認せず意思決定をしてしまうというスタンスもあると思うんですね。

同意を取るときに、プライバシーポリシーを見せたり、データ利用についての情報提供をしても、あまり難しい話は分からないと言われかねません。自分に都合のいい話はよく聞いても、面倒な話は耳に入りづらかったり。人間の意思決定というのは割といい加減で曖昧だと思われます。この人間の意思決定のふわふわした部分に、どうやって付き合っていったらいいのか。

山本 「AIのほうが正しいし、AIに任せたほうが面倒くさいこともなくなってきて、逆に快適に過ごせる」と考えるのも人間だ、と言える。それは公共精神を持った、アーレント的な「人間」ではないけれども、やっぱり「人間」だ、と。他者を尊重して、討議して、考えて、選挙に行って、民主主義を維持して、というのは面倒くさい。

そうすると、中国のような自動化したAI社会も「人間中心」と言えるのかもしれない。

小林 この30年間をインターネット文明と言いましたが、インターネット文明の中での基本原則は、やはり自由ですよね。自由でいたい。

でも、自分がやらなくてもいい意思決定はなるべくやりたくないというのが人間の本質だと思うんですね。しかし、本当にやりたい意思決定は自分でやりたい。それは残っていくはずなので、それでいいのではないかなと。

山本 それは残っていきますかね。「やるべき」だけど、本当に「やる」か。

荒井 インターネット黎明期は、確かに掲示板やソーシャルネットワークもできて、便利になった、という雰囲気があったと思うのですが、その後、ネット上の分断が生まれたり、ネガティブな面が見え始めてしまった。

だから、問題が多数見えてきたので、自由を謳歌するためにも、何らかの当初の設計思想とは違う、問題解決のための仕掛けを上手に入れると、上手くいくのではないかと期待しています。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事