OpenAIやGoogleがAIの業界団体を設立

2023年7月26日、AIの安全性を推進する新たな業界団体「Frontier Model Forum」の設立が、米国のテクノロジー大手4社、グーグル、マイクロソフト、オープンAI(対話型AI「ChatGPT」の運営会社)を含むグループによって発表されました。

引用:OpenAI

この組織は、偽情報の混入というリスクを評価し、国家レベルの対策を策定し提案する役割を担います。

また、バイデン政権との安全対策についての合意を経て、業界自体が自己調整の方向性を示すと同時に、公的な規制に先立って独自の規範を作る試みとも解釈できます。

参考:読売新聞朝日新聞

新設団体の目指す目標

新しく立ち上げられた団体では、目標として下記の4つのポイントを挙げています。

①AIの安全性に関する研究
②最先端のAIモデルの責任ある開発方法の模索
③政治家、学者、市民、企業との連携や情報共有
④気候変動やがんの予防、サイバー空間での脅威など社会課題へのAI活用の支援

新団体への参加資格

この新団体への会員資格は、AI開発の最先端を進む一部の企業に限られています。

具体的には、チャットGPTなどの基盤となる「大規模言語モデル」と呼ばれる技術のうち、「現行の最先端モデルの能力を超える」AIを開発する企業が対象となります。

米国におけるAI規制の現状

米国では、バイデン政権や連邦議会によってAI規制の検討が行われていますが、具体的な法的な拘束力を伴う規制の実現までの見通しは現在のところ立っていません。

業界内からは規制に対する反発の声も上がっており、自主的な取り組みを疑問視する意見も見受けられます。