日本政府 生成AI学習データの開示を促すガイドラインを準備中

日本政府は企業に対して、生成AIの学習に使用されるデータの種類の開示を促すガイドラインを準備しており、骨子案が11日に明らかになりました。

かねてから生成AIには学習データの偏りによって、出力される内容に偏りが出てしまうといった問題点が指摘されています。

これらの問題に対して対処するため、法的な整備や明確な指針の提示が求めらており、政府はガイドラインの作成を急いでいるようです。

同時に、欧州連合(EU)は法的責任を厳格に定義する技術規則を計画中であり、米国では7つのAI開発企業が自主基準の設定を進めています。

参考:NIKKEI Asia

ガイドラインの詳細

政府のガイドラインは法的拘束力がなく罰則もないものとなっています。

ガイドライン案は2つのセクションで構成され、事業者共通のルールや特化したルールが定められています。

政府は、企業がガイドラインに従っているかをチェックするための仕組みを作ることや、政府との取引に参加する際に、そのガイドラインを守ることが必要かどうかを検討しているようです。

ガイドラインの作成は、経済産業省と総務省が約100人の専門家と協力して行われる予定です。

なお東京都は、生成型AIの開発のスピードを妨げないために厳格な制限を避け、企業がジェネレーティブAIを開発・使用する際の規範を提示する方向で進めているようです。

企業への具体的な指針

企業に対しては、法規則を遵守し、人権に配慮したサービスを開発するとともに、リスク管理体制の確立が求められます。

またガイドラインには、AI開発者に対して、プログラムの機能、目的、リスクの開示と透明性の維持を求める内容が含まれています。

ガイドラインは機械学習データの種類にも適用され、生成AIモデルの訓練データがオンラインソースから採取される事例が多いため、元データの性質に対する理解が重要とされています。

今後の展開

米国とEUもAIを利用したコンテンツに開示義務を課す方向で動いており、日本のガイドライン案でも特定の商品やサービスがAIを利用しているかの特定方法について議論が進められています。

このような動きを受け、東京都は透明性の確保に向けた外部監査の利用を検討するなど、今後の展開が注目されます。

まとめ

日本政府が生成AIの学習データの開示に関するガイドラインの準備を進めていることは、AIの透明性と倫理的な使用を強化するために重要な一歩となり得ます。

今回のガイドラインには法的拘束力はないものの、企業に対し、人権に配慮したサービスとリスク管理体制の確立を促しています。

米国やEUといった他の主要なプレイヤーと連携し、AIの健全な発展を促進する方向性は評価できると思います。

しかし、具体的な罰則の欠如や実施機構の不足など、実効性を高めるための詳細な計画が必要とされるのではないでしょうか。