구글 직원들, 미 국방부 AI 협력 반대하며 집단 행동
- •600명 이상의 구글 직원들이 순다르 피차이 CEO에게 국방부 기밀 AI 사업 중단 서한 제출
- •군사적 AI 활용에 따른 투명성 결여 및 윤리적 우려 제기
- •방위 산업 내 민간 AI 기술 적용을 둘러싼 업계 내 갈등 심화
주요 기술 기업들의 내부 문화가 격변하고 있다. 기업의 혁신과 국가 안보라는 두 가치 사이의 경계가 모호해지면서 갈등이 커지는 모습이다. 최근 600명이 넘는 구글 직원들은 순다르 피차이(Sundar Pichai) 구글 CEO에게 공식 서한을 보내, 미 국방부와 연관된 기밀 AI 프로젝트 계약에서 즉각 철수할 것을 요구했다.
전문가들뿐만 아니라 일반 대중에게도 이번 사건은 단순한 내부 의견 충돌 이상의 의미를 지닌다. 이는 급변하는 머신러닝 시스템이 인간의 가치와 안전 기준을 벗어나 유해한 자율 살상 무기로 변질되는 것을 경계하는 AI 윤리 운동의 본질을 건드리고 있기 때문이다. 서한에 참여한 직원들은 현재 군사용 AI 배포를 통제할 투명성과 책임 규정이 사실상 부재하다고 강력히 비판했다.
특히 이번 움직임은 실리콘밸리 거대 기업들이 서로 다른 경로를 걷고 있다는 점에서 더욱 주목받는다. OpenAI는 국방 관련 기관과 협력 관계를 맺고 있는 반면, 앤스로픽(Anthropic)과 같은 다른 기업들은 국방부와의 교류 과정에서 내외부적인 마찰과 반발을 겪은 것으로 알려졌다. 이는 방위 산업 인프라 지원에 있어 민간 AI 연구소들이 어떤 역할을 맡아야 할지에 대해 업계 전반의 합의가 이루어지지 않았음을 시사한다.
이번 서한은 단일 계약에 대한 비판을 넘어 AI 산업 전반에 걸쳐 윤리적 가이드라인을 수립해야 한다는 요구로 확대되고 있다. 방대한 데이터를 빠르게 처리하고 의사결정을 내리는 AI 시스템의 능력이 비약적으로 발전함에 따라, 향후 관련 분야로 진출할 오늘날의 대학생들도 이 상황을 예의주시하고 있다. 민간과 군사 영역에 모두 활용될 수 있는 듀얼유스 기술을 개발하는 것이 과연 기업 연구소의 올바른 방향인지에 대한 질문은 현재 기술 시대의 정의를 내릴 핵심적 윤리 과제가 되었다.
결국 구글의 사례는 경영진의 수익 중심 의사결정과 기술을 직접 설계하는 엔지니어들의 윤리적 의식 사이에서 벌어지는 권력 갈등을 투영한다. 경영진이 국방 예산과 연계된 수익성 높은 계약을 우선시할지, 아니면 핵심 인력의 윤리적 합의를 존중할지는 지켜봐야 할 대목이다. 이번 사건은 향후 AI 거버넌스와 기술 업계 내 새로운 사회적 계약이 어떤 모습으로 진화해야 할지를 보여주는 중요한 사례 연구가 될 것이다.