Anthropic, 미 국방부의 'AI 킬 스위치' 요구 정면 반박
- •Anthropic은 배치된 Claude 모델의 원격 제어와 관련한 국방부의 주장을 반박함.
- •법원 제출 서류를 통해 백도어나 원격 킬 스위치의 존재를 명시적으로 부인함.
- •AI 개발 기업과 정부 보안 요구사항 사이의 커지는 갈등을 보여줌.
인공지능 기업 Anthropic과 미국 국방부 사이에 배치된 AI 시스템의 운영 통제권을 둘러싼 법적 대립이 심화되고 있다. 이번 분쟁의 핵심은 고위험 군사 환경에서 무엇이 안전과 자율성을 구성하는지에 대한 근본적인 견해 차이에 있다. 미 국방부는 분류된 군사 네트워크 내에 배치된 Claude 모델을 즉시 비활성화하거나 명령을 우회할 수 있는 메커니즘을 유지하고 있다고 주장해 왔다.
그러나 Anthropic은 최근 법원 제출 서류를 통해 이를 단호히 반박했다. Anthropic 측은 자사 시스템에는 배포 이후 외부 기관이 소프트웨어를 조작하거나 비활성화할 수 있는 '백도어'나 원격 '킬 스위치'가 존재하지 않는다고 명시했다. 기술과 국가 안보의 교차점을 관찰하는 학생들에게 이 사례는 AI 시스템이 설계자의 의도와 계약상의 보안 의무에 따라 작동하도록 보장하는 이른바 '정렬 문제'를 연구할 수 있는 중요한 장이 된다.
Anthropic은 자사 인력이 분류된 군사 네트워크에 직접 접속해 모델을 관리할 수 없다는 점을 들어, 국방부가 요구하는 수준의 감독이 현실적으로 불가능함을 지적했다. 이러한 기술적 능력과 운영 기대치 사이의 괴리는 정책적 공백을 야기한다. 결과적으로 민간 AI 기업이 정부 기관과 어떻게 상호작용해야 하는지에 대한 더 넓은 질문을 던지게 된다.
군사 및 정보 기관이 대규모 언어 모델(LLM)을 업무 흐름에 통합하려고 시도하면서, 이들은 높은 수준의 통제와 안전장치를 필수적으로 요구하고 있다. 반대로 AI 개발 기업은 자사 아키텍처를 보호하려는 경향이 강하며, 강제적인 우회 경로를 구축하는 것이 시스템 취약성을 초래하거나 모델의 무결성을 훼손할 수 있다고 우려한다. 이는 상업적 AI 개발의 민첩성과 국가 방어 인프라의 엄격한 요구사항 사이의 충돌 지점이다.
이번 법적 공방의 결과는 향후 정부와 AI 기업 간 협력 관계에 거대한 선례가 될 것으로 보인다. 만약 정부가 국가적 용도로 고도로 제어된 특수 모델을 구축하도록 요구한다면, 이는 방위 분야 AI 개발 경로 자체를 완전히 바꿀 수 있다. 우리는 AI가 상업적 소비재에서 정부 인프라의 핵심적인 구성 요소로 전환되는 과정을 목격하고 있다.
이 법적 서사가 전개됨에 따라 AI 정책을 시스템의 기술적 아키텍처와 분리할 수 없는 이유를 명확히 보여주고 있다. 정부가 요구하는 '킬 스위치'가 기술적으로 실현 가능한지, 혹은 그것이 정말로 현명한 조치인지에 대해서는 보안 전문가와 AI 엔지니어들 사이에서도 여전히 치열한 논쟁이 이어지고 있다.