三田評論ONLINE

【特集:科学技術と社会的課題】
吉永 京子:EUのAI法と新興技術規制への視点

2024/08/05

米国におけるAI規制

米国では、2022年10月にホワイトハウスの科学技術政策局(OSTP)が、「AI権利章典の構想(原文を直訳して日本語では「青写真」と呼ばれることもある)」というタイトルでAIに関する5原則を発表した。Bill of Rightsというと、アメリカ合衆国憲法の中でも人権保障規定を指すため、それを彷彿とさせる実に気の利いたネーミングにしたと思う。そして、その後、2023年7月にはバイデン政権が、Google、OpenAI、Anthropic等、AI開発先行企業7社を集めて自主的な取り組み(Voluntary AI Commitments)として安全でセキュアで信頼性のあるAI開発を約束させ、さらに、2カ月後にはアドビ、IBM、NVIDIA等8社も新たに参加した。同政権はAIの倫理面や責任あるAIに向けた政策に積極的に取り組んでいる。

また、企業等が参考にできるリスクマネジメントのフレームワークのガイダンスとして、米国国立標準技術研究所(NIST)は、2023年1月に、「AIリスクマネジメントフレームワーク1.0」を出している。さらに、G7の行動規範が出された直後の2023年10月30日にバイデン大統領は「人工知能(AI)の安心、安全で信頼できる開発と利用に関する大統領令」を発令した。この大統領令によって、米国がこれまでのソフトロー(ガイドライン等法的拘束力がない)アプローチからハードロー(強制力がある法律)に舵を切ったと誤解されることが多いが、そうではない(この点は、6月末に筆者がワシントンD.C.に行って政府関係者やシンクタンクの研究員に訊いて確認をしてきたところである)。この大統領令というのは、行政府の長である大統領の連邦政府の役人や行政機関に対する命令であり、企業に対して特定の行動を求めるものではない。具体的なガイダンスの中身については各政府機関に任されている。

自治体レベルでは、AIを規制する法律を制定している例もある。ニューヨーク市では採用活動においてAIを使っていればそのことを通知しなければならない法律が成立したが、あまり機能していないとのことである。

米国は、連邦レベルでは包括的な個人情報保護法がいまだにない。以前から法案が出ては立ち消えている。実は、これがないので、AI開発企業が研究開発を進めることができたとも言われている。AIについても特にアカウンタビリティに関する議員立法案が盛んに出されているが、成立の見込みがない。

日本におけるAI規制

さて、日本では、前述のように、総務省がOECDに貢献した「AIの研究開発に関する8原則」に「連携の原則」を加えた9原則から成る「国際的な議論のためのAI開発ガイドライン」を2017年7月に発表したのち、利活用の観点からも2019年8月に「AI利活用ガイドライン」を公表した。そして、内閣府は、それと前後して2019年3月に「人間中心のAI社会原則」(統合イノベーション戦略推進会議決定)を出した。さらに、経済産業省は、「人間中心のAI社会原則」を尊重する際にAI事業者が実践すべき行動目標を整理して仮想的な実践例等を提示した「AI原則実践のためのガバナンス・ガイドラインVer.1.1」を2022年1月に公表した。

さらに「人間中心のAI社会原則」を土台として、総務省のAI開発ガイドラインとAI利活用ガイドライン、経済産業省の「AI原則実践のためのガバナンス・ガイドライン」を統合し、新技術の台頭を考慮した「AI事業者ガイドライン」が2024年4月19日に公表された。筆者も経済産業省の「AI事業者ガイドライン検討会」委員としてこのガイドラインの策定に関わったが、総務省と経済産業省が手を組んで1つのガイドラインにまとめたことは評価される。筆者はこれまでシンクタンクの研究員として、長年、官公庁の仕事をしてきたが、複数の省庁が連携してガイドラインを出すということは大変珍しく、今後もこのような省庁間の連携が進むとよいと思っている。

このように、日本では、現時点ではAIを包括的に規制する枠組みとしては、法的拘束力がないソフトローのアプローチを採っている一方、個別分野においては、AIの進展に合わせて既存の法律を修正して対応しているところである(例えば、改正金融商品取引法や特定デジタルプラットフォームの透明性及び公平性の向上に関する法律等)。(詳細は、古川直裕・吉永京子『責任あるAIとルール』(一般社団法人金融財政事情研究会、2024年5月)を参照)

カテゴリ
三田評論のコーナー

本誌を購入する

関連コンテンツ

最新記事