인도 정부, 고성능 생성형 AI 위험성 평가 착수
- •인도 정부가 고성능 생성형 AI 모델의 위험성을 체계적으로 평가하는 시스템을 구축한다.
- •Anthropic의 'Mythos' 모델을 규제 대상인 고성능 시스템의 사례로 언급했다.
- •이번 조치는 강력한 자율 에이전트의 배포 전 안전 프로토콜을 수립하는 데 목적이 있다.
생성형 AI의 급격한 발전으로 인해 국가의 역할이 단순한 관찰자에서 적극적인 감독자로 전환되고 있다. 글로벌 규제 강화 흐름에 맞춰 인도 당국은 최근 고성능 AI 모델에 대한 포괄적인 위험성 평가에 착수했다. 이는 복잡한 추론과 코딩, 의사결정 능력을 갖춘 시스템이 공공 인프라와 사회적 규범에 미칠 영향을 면밀히 살피기 위한 과정이다.
특히 당국은 Anthropic의 'Mythos'와 같은 특정 모델을 주목하며, 현재 기술의 임계치가 산업계의 자율적인 규제만으로는 통제하기 어렵다는 판단을 내렸다. 법과 기술의 교차점을 지켜보는 학생들에게 이번 변화는 기술의 발전 속도를 법제도가 따라가지 못할 때 발생하는 이른바 '거버넌스 격차(governance gap)'를 여실히 보여준다.
핵심 우려는 AI가 악의적으로 행동할 가능성보다, 대규모로 운용될 때 나타날 수 있는 예측 불가능한 돌발 행동에 있다. AI가 인간과 유사한 상호작용을 하거나 독립적으로 복잡한 업무를 수행하게 되면, 사회 공학적 위협이나 체계적 편향과 같은 의도치 않은 결과가 발생할 확률이 크게 높아진다. 정부는 이를 방지하기 위해 스트레스 테스트와 감사 과정을 도입하며, 막연한 위험 논의를 구체적인 정책 정의로 옮겨가고 있다.
이번 정책적 변화는 국가가 AI 인프라를 바라보는 관점의 전환을 시사한다. AI를 단순한 소비재가 아닌 에너지망이나 국방 시스템과 같은 '핵심 기술'로 간주하기 시작한 것이다. 이에 따라 개발자들은 모델이 대중에게 공개되기 전에 더욱 엄격한 안전성 검증을 거쳐야 한다. 정책 입안자들의 과제는 경제적 잠재력과 과학 연구의 혁신 속도를 저해하지 않으면서 이러한 보호 장치를 구축하는 것이다.
결국 이 문제는 혁신과 보호 사이의 균형을 찾는 과정이다. 우리 사회는 이제 국가가 자국 내에서 사용되는 도구의 구축과 배포를 직접 관리하는 'AI 주권' 시대로 진입하고 있다. 앞으로 개발자들에게는 더 많은 의무 감사 요구가 이어질 것이며, 'Mythos' 모델이 어떻게 훈련되었는지, 유해한 결과를 완화하기 위해 어떤 안전 조치가 마련되었는지에 대한 투명성 보고서의 중요성이 더욱 커질 전망이다.