三田評論ONLINE

【特集:AI 社会と公共空間】
座談会:AIネットワーク化の中で、自由で公平な社会をどうつくるか

2019/02/05

日本型のデータの経済圏とは

小林 いろいろなものが自由な世界の中で生まれて、ある程度、普及をしてくると、これはちょっと標準化したほうがいいというタイミングがあると思います。ここ数年で急激に全世界でAIやデータを活用したものが勃興して、そういうタイミングに入ってきたということだと思います。

国内の議論も大事ですが、やはり世界で議論しなければいけない。データは、GAFA(Google, Apple, Facebook, Amazon)と言われる経済圏と、中国の国がプラットフォームになった経済圏と、EUの経済圏があって、日本はどうしますかと問われているときに、個人を起点とした日本型のインクルーシブで信頼性の高いデータの経済圏を、AIの利活用とともにきちんと日本から世界に提案して共感を得ることができたら、日本だけでなく世界にとっても今の冷戦を打開するチャンスになると思うんですね。

まだ決まっていないからこそ前向きにとらえて、私たちで議論をリードしに行く、ということはとても大事なのではないかと思うのです。

荒井 その日本型のデータの経済圏というお考えを、もう少し詳しくお伺いしたいのですが。

小林 まずGAFAの世界では、完全に民に任せて企業主導です。便利になるから個人がそれに乗っかり、その分、個人情報を提供するのはしょうがないという感覚です。中国の場合は、国のある種の強制性が働いている。

日本の場合、個人に判断軸が置かれていて、一方でそれが行政と企業とAPIで全部つながっていて、自由に自分たちの判断の下でスマートにやり取りができるようになることを目指しています。この経済圏は、先ほどの2つとは別の、三者間の信頼感の下に出来上がると思うんです。

山本 制度的には、自分の情報の運用やマネジメントを、信頼できる第三者に任せる情報銀行(情報信託機能)に近いのでしょうか。

小林 情報銀行というモデルもあると思いますが、現在政府で議論しているのは、もう少し民と行政と個人の間で、すべてがスマートにやり取りされるようになる社会です。例えば私たちは引っ越したら、今はA自治体に住民票を引っこ抜きに行って、B自治体に入れに行かなければいけない。これが、B自治体に行けばAから自動的に引っこ抜かれて、しかも電力会社にもきちんと通知されて、本人の了承のもとに振り込み先も変わるようになる。

若目田 顔認証技術にせよ、AIによるスコアリングにせよ、自分の知らないところで自分であることが把握される、スコアリングされているという使われ方では受容されません。誰かではなく、自分が起点のサービス、例えば「自分のスキルや経験を証明したい」「顔パスでサービスを受けたい」といったニーズは高く、そのようなサービスには必然的に個人データが委ねられると考えます。

同じ技術でも、自分が起点か、誰かにそれをされるのかの差は重要で、冒頭に山本さんから例示された中国のデータ活用モデルの対極軸として、「人起点」が我が国のデータ活用モデルとして受容されるのではないでしょうか。

このビジネスモデルの鍵は、長々とリスクヘッジの文言を書くのではなく、データ活用の目的やリスクをスパッと伝えるUI(ユーザー・インターフェイス)であり、まさに人間中心デザインそのものです。

小林 それには私も同感ですが、世界へ提案するときは、あえて日本型と言わないほうがいいと思っているのです。「人起点」が日本の取るべき指針で、中国は「国起点」、GAFAは「企業起点」ですよね。だから、起点が違うということで整理できるのではないかと思っています。

「人起点」とは何か

山本 私もいろいろ政府の会議に関わらせていただいているのですが、その中で「人間中心」のAI利活用だ、ということは様々な形で強調されます。でも、この人間中心、「人起点」というのが具体的に何を意味するのかが、まだ十分に煮詰まっていない。

スローガン的にはしっくりくるのですが、それって何なのでしょうね。例えば、最初に挙げた信用スコアリングでは、その人を「正確」に評価してあげる、その人の努力を正当に評価してあげることが「人間中心」なのか。と言うのも、「正確」に評価するためには、その人の行動記録をシームレスに収集する必要が出てくる。それは結局は監視社会ですよね。

では、その人のプライバシーを守るということが「人間中心」なのか。あるいは、「人起点」ということで、本人が出したくない情報はAIに与えなくてよい、ということになるのか。このように、本人のプライバシーや主体性を重視すれば、データに穴があくことになり、AIの予測精度は落ちる。そうすると、「見せ方」、データ上の「現れ方」が上手い者が得をするため、ちゃんと努力してきた人が損をするかもしれない。要するに、プライバシーや主体性を犠牲にして、AIに情報をシームレスに与えること、その人を正確に把握することが「人間中心」なのか、正確性を犠牲にしてプライバシーや主体性を重視することが「人間中心」なのか。

先日のOECDの会議でも、プライバシーとフェアネス、つまりプライバシーとAI予測の正確性とは実はトレードオフの関係になるということが指摘され、両者をどのように調整していくのかが議論になりました。これと関連して、予測の正確性を高めるために、本人が修正・変更できない遺伝情報などをAIに読ませるべきかも問題となる。

また、「インクルーシブ」というスローガンについても、中国の状況を見ていると本当にそうなるのか、疑問がないわけではありません。かえってエクスクルーシブな社会になるのではないかと。日本が「人起点」をゴールにする場合、そうならないためのセーフガードをどう用意しておくかが重要になるように思います。

小林 「穴があいてしまう」というのも、企業起点、国起点で見ると穴があいているということですよね。でも、人起点でいくと、まさに山本さんがいろいろなところで言っていらっしゃいますが、常に個人の情報というのは本人が出し入れ自由な中で相手との信頼関係をつくっているわけですね。実際に今も「私はどこの大学卒で」とか、「実はこういう失敗があって」と言いながら社会的に人と付き合っている。

結局、その出し入れの権限がどちらにあるかということだと思うのです。この起点が「人」であれば、欠けているとか欠けていないという視点にはならないのではと思います。本人からすれば自分の出したものが登録されていますよ、ということですから。

山本 なるほど。PDS(パーソナル・データ・ストア:自己情報を自ら管理し、その利活用のあり方を自ら決定する仕組み)の発想ですね。まさに自分が評価してもらいたいものを自分が提供して、そうでないものはクローズにする。

若目田 「人起点」とは、データのやり取りの起点のみではなく、例えば、企業が自分を評価するプロセスに対し、ワンクッション確認が入って、自分がそれに納得すれば、サービスを受けるといった、生活者目線の仕組みも該当するのではないでしょか。

山本 採用や与信(金融機関などで信用を与えること)もそれでいけますか。つまり採用や与信だと、自分が見てもらいたいものだけを自分が提供する方式ですと、やっぱりAIの予測精度は落ちますよね。前科情報は出したくないとか。

小林 私は与信と採用は分けて考えたほうがいいと思っているのです。まず与信はサービスを個人が受けたいわけですから、その分、企業に対価として信用情報を提供してくださいということになります。ですから、それなりに信用を得たいと思ったら、今でも実際に負債はどのくらいとか家族構成とかの情報を出していますよね。

また、採用の話というのは、AIが関わるようになった瞬間に特別なものになるように思われていますが、誤解があるような気がしています。人間も育ってきた環境などで必ずバイアスがあります。だから、複数人で採用面接をしますよね。AIも1つのAIで評価すれば、それは必ずバイアスが出る。でも、いろいろなバイアスのかかったAIを並べれば、実は人間と同じことになるのではないかと思います。

山本 領域ごとに「人起点」の具体的ありようが変わってくるということですね。最後の点はよく指摘される問題です。従来の採用とAIを用いた採用の違いは何か、と。

荒井 人間とAIでは、受容性は少し違う部分があるとは思います。私も要は人間も同じことをずっとしていて、それがAIに置き換わっただけというケースもあると思います。例えば「AIは完璧である」などという先入観があるので誤解されているのではないでしょうか。

小林 期待値が高すぎるんですよね。

荒井 AIと言われるような情報処理システムには守るべきルールを入れ込んだり予測精度を評価したりできますが、自律的だったり超人的なものとして誤解されているところに、AIに対する恐怖とか反発があるのではないか。また製品としてのテストの方法論が未成熟だったり一般の方への分かりにくさがある部分は、開発側の課題でもあるかと思います。

「こういう判断基準でやりたい」ということが人間の側ではっきりしていれば、それに合わせてAIを設計していくことができると思うので、できるだけいろいろな分野の方が共通認識を持って取り組んでいけばいいのではないかと思います。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事