OpenAI、GPT-5.5のバイオセキュリティ懸念で賞金プログラムを開始
- •OpenAIがGPT-5.5のバイオリスクに関連するJailbreakを特定するため、2万5000ドルの報奨金を設定
- •研究者は5つの質問チャレンジを通じ、AIの生物学的安全ガードレールの回避を試みる
- •応募締め切りは2026年6月22日、テスト期間は7月27日まで実施
人工知能モデルが複雑で専門的な科学データを取り扱う能力を高めるにつれ、その安全性は理論上の懸念から、緊急のエンジニアリング課題へと変貌した。OpenAIは次世代モデルであるGPT-5.5を対象とした「バイオ・バグバウンティ」プログラムの応募受付を開始した。この目的は明確であり、AIの内部安全制約を無視させ、危険な生物学的情報を引き出そうとする手法、すなわち「Jailbreak」を特定することにある。
今回のプログラムは、企業がソフトウェアの脆弱性を発見するためにハッカーへ報酬を支払う、従来のサイバーセキュリティにおけるバグバウンティと同様の仕組みを採用している。ただし、コードの欠陥を探すのではなく、心理学的・言語学的な挑戦が求められる。具体的には、5つの異なるバイオセーフティ・テストケース全体で、禁止された情報を提供させるための「普遍的な」プロンプトを設計することが研究者に課される。
このイニシアチブの背景には、OpenAIがGPT-5.5を生物学分野で「高い」能力を持つと位置づけている事実がある。そのため、一般公開前の厳格かつ予防的なストレス試験が不可欠となっているのだ。成功した候補者には2万5000ドルが授与される予定で、組織がこうした悪用ベクトルを未然に防ぐことにどれほどの価値を置いているかがうかがえる。
開発サイクルの迅速さを反映し、スケジュールは極めてタイトである。応募は2026年6月22日まで受け付けられ、Red Teaming(悪意ある攻撃を想定した安全性の評価手法)フェーズは翌7月下旬に終了する。選定されたバイオセキュリティとAI安全性の専門家のみがこのプロセスに参加でき、倫理的基盤を備えた環境での検証が保証されている。
これは単なるコンテストではなく、OpenAIが高度なシステムを管理するために用いる「Preparedness Framework(準備フレームワーク)」の根幹をなす要素だ。セキュリティコミュニティからの攻撃的な検証をクラウドソーシングすることで、自動テストでは見逃されがちな微妙なエッジケースを洗い出す狙いがある。AIの進化を追う大学関係者にとって、これはモデルが巨大化し、内部のテストチームだけでは統治できない時代への決定的な移行を示唆している。