引用:OpenAI
米国時間2023年4月11日、対話型AI「ChatGPT」を提供するOpenAIは大手のバグ報酬金プラットフォームである「Bugcrowd」と連携し、バグや脆弱性を発見して報告した者に対して、報告内容の深刻度や影響に応じて200ドル〜2万ドル(約2万7千円〜270万円)の報酬金を与えるプログラムの提供を開始しました。
OpenAIの目標とセキュリティへの対応
OpenAIにとってセキュリティは極めて重要であり、高いプライバシーとセキュリティ基準を維持するために、倫理的なハッカーによる貢献に対して大きな評価を行います。
OpenAIが発表した参加者ルール
参加者は、以下のルールに従って脆弱性のテストと報告を行わなければならない、とのことです。
- 本ポリシーに従ってテストを実施する権限を与えられる。
- 本ポリシーおよび関連する契約に従うようにする。契約と本ポリシーとで矛盾がある場合は、本ポリシーが優先される。
- 発見した脆弱性は速やかに報告する。
- プライバシー侵害やシステム・データ破壊、ユーザーエクスペリエンスへの悪影響は避けなければならない。
- 脆弱性に関するコミュニケーションは、バグ報酬金プラットフォーム「Bugcrowd」を利用する。
- OpenAIのセキュリティチームが公開を許可するまで、脆弱性の詳細は漏洩してはならない。
(報告を受けてから90日以内に許可を行うことを目標にしています) - 範囲内のシステムのみをテストするようにする。
- OpenAIの機密データや他人のデータにアクセス、変更、利用を行ってはいけない。
脆弱性によってデータが漏洩してしまった場合、テストを中止した後、直ちに報告し全ての情報のコピーを削除する。 - OpenAIの許可がある場合を除いて、自分のアカウントを使う。
- OpenAIへの脆弱性の開示は無条件で行う。
※詳細はOpenAI公式サイトをご覧ください。
※また、上記記事は2023年4月14日現在のものです。最新情報はOpenAI公式サイトからご確認ください。