Anthropic, 미 국방부와 AI 보안성 논란 격돌
- •Anthropic은 군사망 배치 후에도 AI 모델을 통제할 수 있다는 주장에 의문을 제기한다.
- •이번 법적 대응은 자사 소프트웨어가 공급망 위험 요소로 지정된 것을 뒤집기 위한 조치다.
- •재판의 쟁점은 폐쇄된 군사 환경에서 사전 학습된 AI 모델의 기술적 수정 가능 여부다.
첨단 AI와 국가 안보 정책이 교차하는 지점에서 Anthropic과 미 국방부(United States Department of Defense) 간의 치열한 법적 공방이 벌어지고 있다. 핵심 갈등은 현대의 거대 언어 모델(LLM)의 본질과, 보안이 강화된 폐쇄망 환경에 설치된 이후 개발자가 모델을 어느 정도까지 통제해야 하는지에 대한 이견에서 비롯된다. 미 연방 정부는 Anthropic의 대표 AI인 Claude를 잠재적인 공급망 위험 요소로 분류하며, 정부 운영에 통합된 이후에도 외부 조작이나 승인되지 않은 변경에 취약할 수 있다고 주장한다.
기술적인 관점에서 Anthropic은 모델이 일단 배포되면 그 내부 가중치가 고정된다는 점을 방어 논리로 내세운다. 회사 측은 국방부의 폐쇄망 내에서 일단 운영이 시작되면, 외부에서 AI의 내부 매개변수에 영향을 주거나 수정할 능력이 없다고 주장한다. 이는 업데이트와 원격 명령을 통해 시스템 무결성을 유지하는 전통적인 소프트웨어 방식에 익숙한 정책 입안자들에게 상당한 도전 과제를 제시한다.
신경망 모델의 경우, 모델의 동작 방식은 학습 과정에서 수많은 가중치 연결로 고정된다. 이는 시스템 제공자가 원할 때마다 끄고 켤 수 있는 실행 스크립트와는 근본적으로 다르다. 이러한 기술적 특성은 생성형 AI의 급격한 확산과 국방 기관의 엄격한 감독 요구 사이의 긴장을 고조시킨다.
기술과 공공 정책을 연구하는 학생들에게 이번 사례는 AI 정렬(AI Alignment)과 보안의 중요성을 보여주는 대표적인 연구 대상이다. 만약 정부의 '공급망 공격(Supply Chain Attack)'에 대한 해석이 법적 효력을 갖게 된다면, 기업들은 규제가 엄격한 분야에 대한 배포 전략을 전면 재검토해야 할 것이다. AI 제공자가 즉각적이고 검증 가능한 업데이트를 보장할 수 없다면 군사적 의미에서 진정한 '보안'이 가능한지에 대한 근본적인 의문이 제기된다.
이번 사건이 항소 과정을 거치면서, 그 결과는 연방 기관들이 생성형 모델 시대에 외부 소프트웨어를 다루는 방식에 중요한 선례가 될 전망이다. 법원의 판결은 향후 정부 조달 계약부터 고보안 구역에서 운영되는 AI 시스템의 기술적 요건까지 폭넓게 영향을 미칠 것이다. 산업계는 이번 판결이 국방 기반 시설에 AI를 통합하는 과정에서 기업의 책임과 정부의 역할 범위를 정의할 것으로 보고 주목하고 있다.