アンソロピック、国防総省によるAI停止措置を否定
- •アンソロピックは、展開されたクロードモデルに対する遠隔操作を主張する国防総省の認識に異議を唱えている。
- •同社は法廷提出書類にて、バックドアや遠隔での強制停止機能(キルスイッチ)の存在を明確に否定した。
- •今回の問題は、AI開発企業と国家安全保障上の要件との間に生じる摩擦を浮き彫りにしている。
AI企業アンソロピック(Anthropic)と米国国防総省との間で、AIシステムの運用管理をめぐる法的な対立が深まっている。この議論の核心にあるのは、高度な軍事環境下において、何が安全性や自律性を構成するのかという根本的な見解の相違だ。国防総省は、一度機密軍事ネットワークに組み込まれたクロード(Claude)モデルに対し、無効化や上書きを行うメカニズムを保持していると主張しているとされる。
これに対し、アンソロピックは最近の裁判資料でこうした主張を真っ向から否定した。同社は、配備後に外部組織がソフトウェアを操作、あるいは無効化できるような「バックドア」や遠隔の「キルスイッチ」は存在しないと断言している。これは技術的な実装と運用側の期待値に乖離があることを示しており、深刻な政策的空白を生んでいる。
AI技術と安全保障が交差するこの事例は、学生にとって「アライメント問題」を考察する絶好の機会だ。アライメント問題とは、AIシステムを設計者の意図、ひいては契約上や安全保障上の義務に沿って動作させる課題である。アンソロピックは、自社の技術者が機密環境にログインしてモデルを管理することは物理的に不可能であり、国防総省が求める監視体制には技術的な限界があると反論する。
今回の紛争は、民間AI企業が政府機関とどう関わるべきかというより広範な問いを提起している。軍や情報機関がLLMを業務に統合しようとする際、当然ながら高いレベルの制御やフェイルセーフ機能が求められる。一方でAI開発企業は、緊急時の強制終了機能の構築が新たな脆弱性を生んだり、モデルの整合性を損なう可能性を懸念し、アーキテクチャの保護を優先する傾向がある。
最終的にこの法的手続きの結果は、政府とAI企業の協力関係における巨大な先例となる可能性がある。もし企業が政府利用のために高度に管理された特別版のモデル構築を義務付けられれば、防衛部門におけるAI開発の方向性は大きく変わるだろう。私たちは今、AIが単なる商業製品から、政府インフラの根幹を成す不可欠なコンポーネントへと移行する過程を目撃しているのである。
この法的展開は、AI政策がいかにシステムの技術的アーキテクチャと切り離せないかを如実に物語る。政府が要求する「キルスイッチ」が技術的に実現可能か、あるいはそもそも妥当なのかという問いは、セキュリティ専門家やAIエンジニアの間で依然として激しい議論の対象となっている。