미 정부, 펜타곤 AI 모델 안전성 의무 검사 도입 검토
- •트럼프 행정부, 펜타곤 통합 AI 모델에 대한 배포 전 필수 안전성 검사 도입 평가
- •AI 기반 사이버 공격 위협에 대응하기 위한 보안 프레임워크 강화 시도
- •국가 안보 분야 대형언어모델(LLM)에 대한 정부의 엄격한 규제 강화 예고
AI 분야의 무분별한 개발 시대가 워싱턴에서 새로운 국면을 맞이하고 있다. 최근 보도에 따르면 트럼프 행정부는 펜타곤(미 국방부) 운영 체계에 AI 모델을 도입하기 전, 엄격하고 필수적인 사전 테스트 프레임워크를 마련하는 작업을 진행 중이다.
이번 조치는 그간 업계의 자율에 맡겨왔던 기존 가이드라인에서 탈피해, 연방 정부가 국가 안보와 직결된 강력한 언어 시스템에 직접적인 규제 권한을 행사하겠다는 의지로 풀이된다. 특히 최근 사이버 공격에 AI가 악용될 가능성에 대한 국방 관계자들의 우려가 깊어지면서, 시스템의 강력함만큼이나 검증의 필요성도 커지고 있다.
앤스로픽의 미토스(Mythos)와 같은 대규모 시스템이 논의의 핵심으로 떠오른 것은 정부가 이들을 단순한 상용 소프트웨어가 아닌, 국가 핵심 인프라로 분류하겠다는 뜻이다. 즉, 국방부가 도입하는 시스템이라면 무기 체계와 동일한 수준의 검증을 거쳐야 한다는 논리다.
대학생과 연구자들에게 이번 사안은 정책과 엔지니어링이 교차하는 지점을 보여주는 중요한 사례다. 그동안 학술회의에서 추상적인 연구 과제로 논의되던 'AI 안전'이 이제 개발 파이프라인의 실질적인 제약 조건으로 자리 잡고 있기 때문이다.
다만 이러한 규제가 오히려 기술 혁신을 저해하고 국가 경쟁력을 약화할 수 있다는 우려도 나온다. 규제로 인해 고성능 모델의 배포가 늦어질 경우, 해외에서 쏟아져 나오는 규제받지 않는 모델들에 대응하기 어려울 수 있다는 지적이다.
결국 글로벌 AI 경쟁은 이제 제도적 통합 단계로 접어들고 있다. 향후 개발자들은 모델의 파라미터나 학습 데이터의 질만큼이나 정책 준수 문서와 규제 대응에 많은 관심을 기울여야 할 것이다.