政府は、インターネット上のデータを使用して文章や画像を生成するAI(人工知能)の急速な進化に対応するためのAI対策の概要案を発表しました。
開発者と提供者の透明性強化
概要案では、AIの開発者や提供者に対する透明性を向上させる必要性を強調しています。これには、第三者による監査や認証制度の創設が盛り込まれており、具体的な対策については関係省庁会議の「AI戦略チーム」で議論が進められる予定です。
対策の三本柱
政府の概要案では、AIに対する対策として以下の三つの柱を掲げています。
- 法令やガイドラインの順守の徹底
AIの開発者や提供者に対して、AIの仕組み、学習データの内容、データの取り扱いなどに一定の品質を保証するための第三者の監査や認証制度の導入が検討されています。 - 「リスクベース・アプローチ」の採用
AIのリスクの高さに応じて規制を行う「リスクベース・アプローチ」を採用することを提案しています。これは、精神的または身体的な害のリスクに基づいてAIを分類し、それぞれのランクに応じて規制の厳しさを調整する手法です。欧州連合(EU)でも、この手法がAI規制の中核として採用されています。 - 技術による対応
AI技術を活用して対策を講じることが含まれています。
利用者へのガイドライン
また、AIの利用者に向けて、機密情報の保護や虚偽情報への注意、教育現場での活用方法などに関するガイドラインを作成し、広く周知することが明記されています。
政府のG7サミットへの対応方針
5月に広島市で開催された先進7か国首脳会議(G7サミット)では、「広島AIプロセス」の推進で合意されました。政府は、このプロセスに基づき、生成AIの規制について議論を本格化させ、年内にG7としての立場を表明する方向です。
日本政府は、G7各国の状況を把握しつつ、国際的な取り組みと連携して規制の具体策を検討していく考えです。
まとめ
政府は生成AIの急速な進展に対処するための対策概要案を発表しました。この概要案では、開発者と提供者の透明性向上、法令の順守、リスクベースのアプローチ採用、技術活用を主な柱としています。
国際的な観点からは、G7と連携して「広島AIプロセス」を推進する方針で、この政府の取り組みは、AIの社会的影響を考慮し、責任ある開発と利用を促進するために重要と言えるでしょう。