【最大270万円】ChatGPTを提供するOpenAIがバグ報酬金プログラムを発表

引用:OpenAI

米国時間2023年4月11日、対話型AI「ChatGPT」を提供するOpenAIは大手のバグ報酬金プラットフォームである「Bugcrowd」と連携し、バグや脆弱性を発見して報告した者に対して、報告内容の深刻度や影響に応じて200ドル〜2万ドル(約2万7千円〜270万円)の報酬金を与えるプログラムの提供を開始しました。

OpenAIの目標とセキュリティへの対応

OpenAIにとってセキュリティは極めて重要であり、高いプライバシーとセキュリティ基準を維持するために、倫理的なハッカーによる貢献に対して大きな評価を行います。

OpenAIが発表した参加者ルール

参加者は、以下のルールに従って脆弱性のテストと報告を行わなければならない、とのことです。

  • 本ポリシーに従ってテストを実施する権限を与えられる。
  • 本ポリシーおよび関連する契約に従うようにする。契約と本ポリシーとで矛盾がある場合は、本ポリシーが優先される。
  • 発見した脆弱性は速やかに報告する。
  • プライバシー侵害やシステム・データ破壊、ユーザーエクスペリエンスへの悪影響は避けなければならない。
  • 脆弱性に関するコミュニケーションは、バグ報酬金プラットフォーム「Bugcrowd」を利用する。
  • OpenAIのセキュリティチームが公開を許可するまで、脆弱性の詳細は漏洩してはならない。
    (報告を受けてから90日以内に許可を行うことを目標にしています)
  • 範囲内のシステムのみをテストするようにする。
  • OpenAIの機密データや他人のデータにアクセス、変更、利用を行ってはいけない。
    脆弱性によってデータが漏洩してしまった場合、テストを中止した後、直ちに報告し全ての情報のコピーを削除する。
  • OpenAIの許可がある場合を除いて、自分のアカウントを使う。
  • OpenAIへの脆弱性の開示は無条件で行う。

※詳細はOpenAI公式サイトをご覧ください。

※また、上記記事は2023年4月14日現在のものです。最新情報はOpenAI公式サイトからご確認ください。