백악관, Anthropic AI 모델 위험성 평가 무력화 추진
- •백악관이 연방 기관들이 특정 AI 모델의 위험성 지정을 우회할 수 있도록 하는 지침을 마련 중이다.
- •이번 행정 조치는 Mythos와 같은 신규 AI 시스템을 연방 정부 시스템에 신속하게 도입하려는 목적이 있다.
- •정부의 운영상 필요성과 민간 AI 안전 표준 사이의 정책적 갈등이 심화되고 있다.
연방 거버넌스와 민간 AI 개발의 교차점에서 새로운 갈등이 발생하고 있다. 백악관은 연방 기관들이 Claude 시리즈를 개발한 Anthropic과 같은 민간 기업이 부여한 위험성 지정을 우회할 수 있는 지침을 작성 중인 것으로 알려졌다. 이는 정부 기관이 보안 프로토콜 유지와 기술 도입의 신속성 사이에서 어떻게 균형을 잡을 것인지를 보여주는 중대한 전환점이다.
이 사안의 핵심은 위험을 어떻게 분류하느냐에 달려 있다. 일반적으로 AI 기업들은 안전 문제를 야기하거나 사용이 제한되어야 할 모델에 대해 내부적으로 안전 장치(guardrail)를 설치한다. 그러나 백악관이 이러한 평가를 무력화하려는 것은 민간 기업의 예방적 조치보다 정부의 운영상 필요성이나 자체적인 위험 판단을 우선시하겠다는 결정으로 해석된다.
이번 정책은 Mythos를 포함한 고성능 신규 모델 도입에 초점이 맞춰져 있다. 이는 단순한 기술적 논쟁을 넘어 누가 국가 인프라에 쓰일 AI의 안전성을 결정할 것인가에 대한 주도권 문제다. 모델 아키텍처를 설계한 엔지니어와 국가적 책임을 지는 정책 입안자 중 누구의 판단이 우선되어야 하는지에 대한 근본적인 질문이 제기되고 있다.
이번 움직임은 지금까지 AI 업계가 규제 당국과 협력해온 자발적 안전 표준에 대한 정부의 불만족이 커졌음을 시사한다. 만약 백악관이 이 행정 조치를 강행한다면, 외부 관찰자들에게는 내부 안전 논리가 불투명한 시스템과 공공 기관이 어떻게 상호작용해야 하는지에 대한 새로운 선례가 될 것이다.
결국 이번 사태는 AI 안전의 주체를 누구로 볼 것인가를 재고하게 만든다. 민간 연구소는 기술적 취약점을 파악할 전문성은 갖추고 있으나, 그들의 위험 평가가 국가 안보나 전략적 우선순위와 항상 일치하지는 않을 수 있기 때문이다. 자발적 규제 시대를 지나 국가가 주도하는 엄격한 AI 배포 프레임워크로 넘어가는 과정에서 이러한 갈등은 앞으로도 계속될 전망이다.