Anthropic、AIのセキュリティを巡り米国防総省と対立
- •Anthropicは、閉鎖的な軍用ネットワークへの導入後もAIモデルを制御できるとする米国防総省の主張を否定している。
- •今回の法廷闘争は、同社のソフトウェアをサプライチェーン・リスクと指定したトランプ政権の判断を覆すことを目的としている。
- •AIの事前学習済みモデルを、セキュリティが確保された軍事環境内で外部から操作できるかという技術的な実現可能性が争点となっている。
高度な人工知能(AI)と国家安全保障政策の交差が、重要な転換点を迎えている。Anthropicは控訴裁判所において、米国防総省(United States Department of Defense)と真っ向から対立している。争いの核心にあるのは、現代の大規模言語モデル(LLM)の性質と、厳重に管理された閉鎖的または機密性の高い軍事環境にモデルが統合された後、開発者がどの程度まで制御を維持できるかという点についての根本的な認識の相違だ。
米国政府は、Anthropicの主力AIである「Claude」を潜在的なサプライチェーン・リスクと見なしている。政府側は、一度機密業務に統合されたとしても、基盤となるソフトウェアは依然として外部からの操作や不正な改ざんを受けやすいと主張する。これに対し、Anthropicの防御は、モデルが展開された後のモデルの重み(ウェイト)の静的な性質に依拠している。
法廷への提出書類の中で同社は、国防総省の閉鎖型インフラ内でAIが運用されている場合、その内部パラメータを外部からリモートで影響を与えたり、変更したりすることは技術的に不可能だと主張する。この主張は、アップデートやパッチ、リモートコマンドによる保守が標準的な従来型ソフトウェアに慣れ親しんだ政策立案者にとって、大きな認識のギャップを浮き彫りにしている。
ニューラルネットワークにおけるモデルの振る舞いは、トレーニング段階で重み付けされた膨大な接続の中に「焼き付け」られており、提供者が随時切り替えられる常時稼働のスクリプトとは性質が異なるためだ。この法廷闘争は、生成AIの急速な普及と防衛機関の厳格な監視要件との間に生じている緊張を如実に示している。AI技術と公共政策を学ぶ学生にとって、本件はAIアライメントとセキュリティに関する極めて重要なケーススタディとなる。
もし「サプライチェーン・リスク」という政府の解釈がまかり通れば、企業は厳格な規制を受けるセクターに向けた展開戦略の抜本的な見直しを余儀なくされるだろう。提供者が即時かつ検証可能な更新を行えない場合、AIは軍事的な意味で真に「安全」と言えるのか。あるいは、逆に展開済みのモデルを制御下に置こうと強いること自体が、新たなセキュリティの脆弱性を招くのではないかという切実な問いが投げかけられている。
控訴プロセスが進むにつれ、その判決は連邦機関が生成モデルの時代においてサードパーティ製ソフトウェアをどのように扱うかという極めて重要な先例となる。裁判所の判断は、今後の調達契約から高セキュリティゾーンで運用されるAIシステムの技術要件に至るまで、あらゆる側面に影響を及ぼすだろう。業界は、この判決がフロンティアAIモデルの国家インフラへの統合において、企業の責任と政府の義務の境界線を定義するものとして注視している。