三田評論ONLINE

【特集:AI 社会と公共空間】
座談会:AIネットワーク化の中で、自由で公平な社会をどうつくるか

2019/02/05

アカウンタビリティの必要性

若目田 「プライバシー・バイ・デザイン」をアン・カブキアン博士が提唱してから20年以上経っていますが、改めて信頼の価値が重要視される今こそ参考にすべき行動指針と言えるでしょう。また、グローバルに経済活動を行うには、プライバシーのみならず、広く人権に対する影響まで考える必要があります。

山本 最近、AI領域では、プライバシー・バイ・デザインよりももう少し広い射程を持った、「エシックス・バイ・デザイン」(アルゴリズム等の設計ないし設計プロセスの中に一定の倫理観を組み込むこと)という言葉も国際的に多用されていますね。

若目田 日本は確かに人権に関して真向からの「抗差別」のような行動は少ないのですが、AIやカメラによって行動をトレースされているかのような報道のされ方によって、必ずしもそのような使い方ではなかったとしても「炎上」するリスクがあります。漠然とした不安というものが「炎上」につながっており、それに対して企業がやや過剰に躊躇しているという状況もあるようです。

一方で、逆にプライバシーへ配慮すべき点の理解や、意識がないことに起因するヒヤリ・ハット事例も散見されます。

ちなみに経団連も、「AI活用戦略」として、AI-Readyな事業者になるためのガイドラインを作成中です。例えば人材育成としては単純にデータサイエンティストを増やすだけではなく、倫理や人権についての知識を併せ持った人材の必要性も指摘されています。

山本 炎上リスクの回避というと少々消極的な印象も受けます。企業としても「人権」や「公共性」に配慮したAIの実装を考えつつあるのは、国際的な情勢に足並みを揃えるという意味なのか。あるいはもう少し積極的な理由があるのでしょうか。

若目田 確かに炎上リスクを避けるというと、やや企業目線のスタンスですね。NECは、「NEC Safer Cities」と称し、今回のテーマである公共空間におけるICT活用、スマートシティを成長戦略の1つと定めました。

当然ですが、公共空間の様々な情報を可視化することは重要な要素で、カメラに代表されるセンサーデータへの期待は大きいです。カメラの特性として、データ主体から明確な同意を取得することが困難なケースが増えてきますので、状況に応じた、最も適切な通知や公表のあり方を、その都度考えていくプロセスなくしては、そもそもビジネスは成り立たなくなっていると言えます。

また、そのようにアカウンタビリティや透明性の点で優れた会社やサービスが選ばれるべきで、地道な行動をきちんと評価していただけるような仕組みができることを期待しています。NECでは特に、事業にも直結するのでプライオリティは高いと認識しています。

技術と利活用のあいだ

泰岡 私は技術屋ですが、いくら技術的にいいものであっても、結局、人間がそれをどう使うか、それが倫理なのかもしれませんが、そこのバランスは重要だと思っています。

どうしてもわれわれの観点だと、まず技術でできることをどんどん積み上げましょうとなります。特にAIの話は技術先行で、コンピュータのGPU(汎用的に利用される演算装置)の進化などもあってだいぶ進んできた。並列処理ができるコンピュータなど一気にブレークスルーが出てきました。どうやって技術と人間のバランスを取って最終的にはどう使うのか。技術屋だからこそ、きちんと議論しなければいけないという気がします。

山本 技術の開発段階でも公共性や倫理について議論しなければならないということでしょうか。他方で、技術と利活用は別だ、という議論もあり得ますね。技術はニュートラルなものだ、問題はそれをどう使うかにあると。従来はそのような「技術/利活用」分離論が強かったように思いますが。

泰岡 確かに今までは技術は技術で、とにかくいいものをつくりましょうということでやってきました。もちろんコストなどは考えますが、どちらかというと倫理的なものは後回しになってきたのかなと。

小林 基本的に昔からそうですよね。自動車ができてから交通ルールができるんです。文明が進むと、それに必要な倫理観が出てきて、その倫理を実践するための法律という仕組みが出来上がっていく。こういう順番だと思うんです。

私は、この30年間でインターネット文明が開花したと理解しています。技術が進展して、それに伴い、情報やプライバシーに対して以前とは全く違う倫理観がそれぞれに出来上がりつつある。そこで、そろそろ標準化されたルールを国際的につくっていく必要があるのではないかという議論が出てきている。これは、ある種、オーソドックスな順番だと思います。

山本 他方で、それでは手遅れという議論もあり得ます。例えば原子力はエネルギーにもなれば爆弾にもなる。デュアル・ユースです。やや青臭いことを言えば、核兵器の問題は、技術・開発段階でこの二重性を真剣に考えなかった帰結とも考えられる。「技術あり、然る後に倫理あり」ではなく、技術と倫理が同時並行的に育まれることが重要という議論もあり得るのではないでしょうか。もちろん、倫理とは異なる「法」規制は後発であるべきですが。

他方で、技術段階にあまりに倫理的なものを求めると、技術革新が妨げられる部分もあって、やはり〝倫理フリー〟でいくべきだという議論も当然あり得る。実は、研究段階は憲法23条の「学問の自由」でその自律性が憲法上保障されてもいます。

ただ、どうなんでしょう。ベストセラーとなった『ホモ・デウス』の著者ユヴァル・ノア・ハラリ氏は、AIや遺伝子工学で人類史上かつてない社会の変革が起きる、エリートと無用者階級とに分断した超階層社会が生まれると指摘しています。AIがこうしたインパクトを持つとすれば、AIの二重性を技術段階でも議論しておく必要は多少なりともあるのではないか。

荒井 実際に使用する製品となる段階で、いろいろな議論があるとは思います。研究に関しては、技術者は何か最適化したい目標に対して努力していますので、その目標の中に倫理観を組み込むことが考えられます。どのような倫理観を組み込むかというところでは社会との調整が不可欠と考えています。

例えば入社試験の合否などのクラス分類において受験者の性別の影響をこれくらいの範囲内に収めようというルールができれば、その制約の下で最も会社に望ましい合格者を選択する合格規準をつくることはできます。他に、複雑なルールで記述される予測モデルにできるだけ説明性を持たせるようにするという研究などもあります。何を目標にするかというのは、技術者だけで決めるものではないと思います。

山本 AIの設計にも政策的判断が不可避だと。そうすると、やはり社会との対話のチャネルみたいなものが必要だということですね。

荒井 そうですね。先ほど言及したように学会や、また企業のほうでもいろいろな活動があるかと思うのですが。

泰岡 もともと自分自身が理学系にいて、だんだん工学系に近くなり、ちょうど今、大学の中でKGRI(慶應義塾大学グローバルリサーチインスティテュート)という文理融合的なところでAIの活用プロジェクトみたいなものが始まりました。

私のようなAIの研究者ではない研究者がAIをどうやって使えるか。そういうものを学生が勉強する場所も用意し、その人たちが社会に出ていって、それを使って活躍できるようにするようなことを今、始めています。AIの研究をする人と社会との間ぐらいのところを皆で議論して、対話のチャネルになればよいのかなと。

山本 AIもニュートラルではないわけで、「対話」は非常に重要ですね。

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事