生成AIを業務活用する企業にも適用 政府の事業者向けガイドライン案

政府が生成人工知能(AI)の適切な利用を目的として、新たな事業者向けガイドラインを策定中だということが分かりました。

このガイドラインは、AIの開発者やサービス提供者だけでなく、AIを業務で活用する各企業や団体にも適用され、責任を生じさせるものとなります。

10月末には中間報告がまとまり、11月末までには最終案が完成し、年明けに意見公募を経て正式決定する予定です。

ガイドラインの概要

ガイドラインでは、生成AIによる誤った回答(ハルシネーション)や、個人情報・機密情報の入力による情報漏洩のリスクについて職員に周知するなど、AI利用におけるリテラシーの教育やマニュアルの策定などが求められています。

ちなみに、東京都が作成したガイドラインでも同じような内容が記されています。

引用:東京都

また、PROMPTYでも過去に、生成AIによるハルシネーションの問題や、個人情報・機密情報を入力しないなどといったルール作成について取り上げているので是非参考にしてください。

関連記事

ハルシネーションとは ハルシネーションとは、AIが生成する情報が現実や事実に基づいていない場合を指します。この現象は、言語モデル(特に大規模なもの)が正確な情報を提供するのではなく、文脈に適合するように見える回答を生成することから生[…]

関連記事

「ChatGPTを社内に導入したいけど、ルールはどうしたらいい?」「ChatGPTを社内に導入するときのセキュリティ対策手段を知りたい」 このように考えている方は多いのではないでしょうか? 今回PROMPTYでは、ChatGP[…]

その他、アルゴリズム(計算手法)開発者に対して、差別につながる情報の使用を避け(生成AIは学習させた情報をもとに回答を出力するため)、高齢者が使いやすいよう配慮するよう求めています。

政府がガイドラインを策定する意義

政府がガイドラインを策定する意義は、生成AIの利用の広がりとそのリスク管理における統一的な方針を示すことにあります。これまで、各企業や自治体が独自にガイドラインを策定してきましたが、それぞれのガイドラインには多少のばらつきがあります。

また、生成AIの利用は、プライバシーや著作権の問題をはじめとした数々の課題を持つ技術です。このような背景から、政府が中央の権威としてガイドラインを示すことは、国内の生成AI利用の方針を統一し、安全性と効果的な活用の両方を保証するために不可欠です。

さらに、政府がガイドラインとして示すことで、生成AIの潜在的なリスクを正面から認識し、それを踏まえた上での適切な利用が広がることが期待されます。