OpenAIとロスアラモス国立研究所(米)は7月10日、バイオサイエンスにおける生成AIの安全性・有効性を評価するため提携を発表しました。
この検証は、AIバイオセキュリティ評価の研究の最先端実験として位置付けられています。
バイオサイエンスにおける生成AIの安全性と有効性
本研究は、生成AIの中でもGPT-4oなどのマルチモーダルモデルが悪意のある生物学的用途にどれだけ悪用される可能性があるのかを検証します。
ロスアラモス国立研究所(以下、LANL)は「AI発展による恩恵は計り知れない」と述べています。
一方で「発展したAIが生物学的脅威に関係する危険性については大部分が未解明のままである」と述べており、そのため本研究がスタートしています。
AIを用いた生物学的脅威は高い危険性を持っており、以前の評価ではGPT-4に生物学的脅威に関わる情報出力に関して軽微な向上が見られたという結果がでています。
しかし、マルチモーダルモデルに関しては未だ研究が為されておらず、本研究において、どれだけ生物学的脅威の危険性を軽減できるのかが注目されます。
参考:ロスアラモス国立研究所
OpenAIのフレームワークを用いた調査を実施
今回の実験はOpenAIの「Preparedness Framework」を用いて実施されます。
「Preparedness Framework」とは、GPT-4oのような高度なAIモデルの持つリスクに対して体系的に対応していくための方針です。
この枠組みを利用することにより、AIがもたらす潜在的かつ壊滅的なリスクを追跡、評価、予測、および軽減するための包括的アプローチを取っていくことができます。
参考:OpenAI
ロスアラモス国立研究所の取り組み
LANLは第2次世界大戦中に設立され、現在はヘルスケア・バイオサイエンス分野の研究に取り組んでいる機関です。
AIのリスク評価を行う「AIRTAG」を設立しており、AIツールの安全な展開を実現するための戦略立案などを行っています。
今回のOpenAIとの共同研究もAIRTAGの活動の一環としており、LANLのニック氏は以下のように述べています。
原文
ロスアラモス国立研究所
This type of cooperation is a great example of the type of work that AIRTAG is trying to foster to help understand AI risk, and ultimately making AI technology safer and more secure,
和訳
この種の協力は、AIRTAGが推進しようとしているAIリスクを理解し、最終的にAI技術をより安全かつ安心なものにするための一例です。
まとめ
OpenAIとロスアラモス国立研究所(米)は7月10日、バイオサイエンスにおける生成AIの安全性・有効性を評価するため提携を発表しました。
本研究が主眼に置いていることは、あくまでバイオサイエンスにおける生成AIの持つ生物学的脅威のリスクです。
しかし、今回の研究で生成AIの安全性が保証されれば、今後異なる科学領域での生成AI活用の糸口になる可能性があります。
LANLとOpenAIの今後の発表に注目していきましょう。