구글의 국방 AI 계약, 직원 600명의 윤리적 반기
- •구글과 미국 국방부의 기밀 AI 이용 계약 체결로 군사 분야 모델 활용 본격화
- •DeepMind 및 클라우드 부문 등 직원 약 600명이 군사 전용과 윤리적 위험에 우려 제기
- •기밀 처리에 따른 AI 용도 감시 및 통제 불능 가능성에 대한 강한 비판 대두
AI 기술이 급격히 발전하며 사회 곳곳에 스며들면서 기술 기업과 국방 조직 사이의 경계가 희미해지고 있다. 최근 구글과 미국 국방부가 체결한 기밀 AI 이용 계약은 이러한 흐름을 단적으로 보여주는 사례다. 이 계약을 통해 구글의 강력한 AI 모델은 그간 외부와 차단되었던 군의 기밀 업무 영역에 도입될 예정이다. 이에 따라 국방부는 다양한 합법적 목적에 구글의 AI를 활용할 수 있게 되었으며, 군사 AI 시장을 둘러싼 플랫폼 경쟁도 더욱 가열될 전망이다.
그러나 이러한 행보는 구글 내부에서 큰 갈등을 빚고 있다. 비즈니스 인사이더 등에 따르면, 구글의 DeepMind와 클라우드 부문 직원 약 600명이 순다르 피차이(구글 CEO)에게 항의 서한을 전달했다. 직원들의 핵심 우려는 단순히 군사 이용 자체에 머물지 않는다. 그들은 AI 시스템이 '기밀'이라는 베일에 싸임으로써, 정작 시스템을 개발한 구글 내부에서조차 해당 AI가 구체적으로 어떤 용도로 어떻게 사용되는지 감시하거나 감사할 수 없게 된다는 점을 지적한다.
공학적 관점에서 AI의 투명성과 해석 가능성은 모델의 안전성과 신뢰성을 보장하는 핵심 요소다. 하지만 군사라는 민감한 환경에서는 운영 실태가 완전히 비공개로 유지된다. 직원들은 이런 폐쇄적인 환경에서는 AI가 치명적인 살상무기나 대규모 감시 시스템에 악용되더라도 이를 통제할 권한이나 수단이 사라진다고 주장한다. 기술적 통찰력을 가진 이들이 느끼는 실질적인 공포가 그대로 반영된 대목이다.
이번 논란은 AI 엔지니어와 학생들에게 군민 양용이라는 난제를 다시금 상기시킨다. AI는 신약 개발이나 기상 예측 등 인류의 난제를 해결하는 강력한 도구이지만, 그 범용성 때문에 기술이 일단 시장에 나오면 개발사가 통제권을 온전히 유지하기는 매우 어렵다. 특히 군사적 목적의 활용은 한 기업의 윤리 지침을 손쉽게 넘어설 수 있기에 더욱 위험하다.
이번 사태는 기업 이익을 우선하는 경영진과 기술의 사회적 책임을 고민하는 현장 엔지니어 사이의 깊은 간극을 드러냈다. 구글이 향후 기밀 업무와 관련해 어떤 거버넌스 체계를 구축할지, 혹은 직원들의 목소리를 수용해 계약 내용을 재검토할지는 아직 미지수다. 다만 이번 항의는 실리콘밸리의 AI 개발 방향성에 큰 경종을 울리고 있다.
AI는 단순한 코드를 넘어 사회 구조를 바꾸는 힘 그 자체다. 이제는 기술을 누가 관리하며 누가 책임을 질 것인지가 중요한 화두가 되었다. 미래의 개발자로서 학생들 역시 단순히 무엇을 만드는지에 그치지 않고, 누구를 위해 어떤 조건으로 기술을 개발할 것인지에 대한 본질적인 질문을 스스로 던져야 하는 시대가 도래했다.