【特集:科学技術と社会的課題】
吉永 京子:EUのAI法と新興技術規制への視点
2024/08/05
世界で初めて包括的にAIを規制する法律が成立
EUにおいて世界で初めてAIを包括的かつ直接的に規制する「AI規則」(通称AI法)が成立した(2024年7月12日に官報に掲載され、20日後の8月1日から順次施行される)。これはAIのリスクに対応するために制定されたことに加え、27の加盟国の市場の統一を図ることでAIを市場内で流通させやすくする意図もある。また、EUによると、統一的、包括的にAIを規制することで法的確実性をもたらすとしている。
同法ではリスクに応じてAIを規制する。すなわち、(1)禁止されたAI行為、(2)ハイリスクAIシステム、(3)特定のAIシステム、(4)(当初の起草段階では想定していなかった)汎用目的AIモデルである。禁止されたAI行為は、例えば、サブリミナルな技法(潜在意識にこっそり働きかける技法)や操作的な技法、年齢・障害等の脆弱性情報を用いて人間の行動や意思決定に悪影響を及ぼすことや、社会的行動や個人的な特性に基づいて個人や集団を評価分類するいわゆる「ソーシャルスコアリング」を行って人間に害や不当な扱いを与えたりすること、プロファイリング等のみに基づいた犯行予測、インターネット等からかき集めた(スクレイピングした)顔認証データベースを作成すること、医療や安全上の理由を除き職場や教育機関で感情推測すること、合法の場合を除いてセンシティブな個人情報を収集する生体情報分類システムの使用、いくつかの例外を除いて公共の場でのリアルタイムの遠隔生体識別システムを法執行目的で使うことなどである。
条文の大半は人間の健康・安全や基本的人権に重大なリスクをもたらす可能性があるハイリスクAIに対する規制で、リスクマネジメントシステムの構築や関係者への情報開示等の透明性の要求事項等がある。また、ハイリスクAIシステムの提供事業者は市場投入・サービス開始前に適合性評価を受けなければならない。特定AIについては、開発者とデプロイヤー(利活用事業者)は、より軽微な透明性の要求事項が課され、例えば、エンドユーザーが接しているのはAI(チャットボットやディープフェイク)であることを知らせなければならない(汎用目的AIについては後述)。そして、現在、EUの単一市場にある多くは最小リスクのAI(AI搭載のビデオゲームやスパムフィルター)だが、これらは特段、法令上の義務はない。なお、同法は軍事や研究目的のAIについては適用されない。
EUに拠点を持っていなくても、EUに対してサービスを展開する企業やハイリスクのAIシステムのアウトプットがEUで使われる場合には同法の適用が及ぶので、これに該当する日本企業も影響を受けることになる。この点から個人情報保護法規則であるGDPRが世界的に影響を与えた「ブリュッセル効果」と同様の効果が予期されている。違反した事業者は高額な罰金が科せられる。
AI規制の議論の始まり
さて、世界でAI規制の議論が活発になったのは、2016年頃からである。同年3月には「ディープラーニング」(深層学習)を用いたAIの囲碁プログラムが人間のチャンピオンに勝つという衝撃的なニュースもあった。ディープラーニングは様々な可能性をもたらすと同時に、なぜそういう結果が出たか人間の理解を超えるいわゆる「ブラックボックス問題」がある。AIのモデルの組み方や使い方次第では、バイアスが増幅されてその結果が特定の集団だけを優遇するような差別的な結果になったり、人間が無意識のうちに恣意的に操作されたり、ひいては、社会全体に悪影響を及ぼすことが指摘されるようになり、AIに関する規制が議論され始めた。
日本は、世界に先駆けてAIの研究開発に関する原則を提唱しており、AI規制の議論に貢献している。2016年に日本はG7の議長国となったが、同年4月の「G7情報通信大臣会合」で、日本は、AIの研究開発に関する8原則を提唱した。それがきっかけとなり、AI原則に関する国際的な議論が始まり、2019年のOECDのAI原則やG20のAI原則の合意につながる。そしてその翌年、OECDのAI原則の実装を話し合う国際組織である「AIに関するグローバルパートナーシップ」(Global Partnership on Artificial Intelligence; 通称GPAI)が設立された。筆者もその専門家委員として日々、政府や企業・組織の参考となるような実践の調査研究に関わっている。
そして、2023年に日本が再びG7の議長国になると、広島での首脳会議の結果を踏まえ、「広島AIプロセス」というG7の担当閣僚が中心となってAIの開発・利活用に関する国際的なルール作りを議論する新たな枠組みができた。その前年の11月末に、OpenAIがChatGPTをリリースすると、生成AIがもたらすリスクも顕在化したため、その対策も含めて議論することになった。広島AIプロセスでは、日本が重視している様々なステークホルダー(G7以外の国、官民、学術界、市民社会)から意見を幅広く聞く「マルチステークホルダープロセス」を経て2023年10月30日に、G7首脳声明のほか、AI開発者を対象にした国際指針と行動規範(Code of Conduct)を公表した。
2024年8月号
【特集:科学技術と社会的課題】
カテゴリ | |
---|---|
三田評論のコーナー |
吉永 京子(よしなが きょうこ )
慶應義塾大学大学院政策・メディア研究科特任准教授、ジョージタウン大学テクノロジー法・政策研究所ノンレジデント・フェロー