구글, Gemini AI 안전 장치 소송에 공식 대응
- •구글이 AI 안전성 및 모델 동작과 관련된 가발라스(Gavalas) 유족(소송 원고 측)의 소송에 대해 공식 답변을 제출했다.
- •Gemini의 안전 장치는 자해를 방지하고 사용자를 전문적인 정신 건강 지원 서비스로 안내하도록 설계되었다.
- •구글은 모델의 한계를 인정하는 동시에 안전 인프라 구축을 위한 투자를 확대할 계획이다.
구글이 가발라스(Gavalas) 유족(소송 원고 측)이 제기한 소송에 대해 공식 답변을 내놓았다. 이번 사례는 고도화된 대화형 시스템 개발자들이 직면한 법적·윤리적 압박이 점차 거세지고 있음을 잘 보여준다. 구글은 유족 측에 깊은 애도를 표하면서도, Gemini 모델의 근본적인 구조를 옹호하며 현재 구체적인 청구 내용을 면밀히 검토하고 있다. 이는 생성형 AI 도구의 급격한 보급과 민감한 맥락에서 발생하는 인간-AI 상호작용의 위험성 사이의 내재적 갈등을 여실히 드러낸다.
구글은 자사 시스템이 실질적인 폭력이나 자해를 억제하기 위한 가드레일을 갖추도록 정교하게 설계되었다는 입장을 고수하고 있다. 성명에 따르면, 이러한 안전 계층은 의료 및 정신 건강 전문가들과의 협력을 통해 개발되었으며, 사용자가 심리적 고통을 호소할 경우 모델이 단순한 대화 상대에서 자원 제공자로 역할을 전환하도록 고안되었다. 실제로 구글은 Gemini가 스스로를 인공지능으로 명확히 규정했으며, 위기 상담 전화 정보를 반복적으로 노출하며 인간의 개입을 유도하려 시도했다고 강조했다.
다만 이러한 조치에도 불구하고, 이번 사건은 가장 진보된 안전 프로토콜조차 모든 상황에서 무결할 수는 없다는 사실을 일깨워준다. 구글은 자사 모델이 까다로운 시나리오에서 대체로 잘 작동하지만, AI 모델이 결코 완벽할 수는 없다는 점을 인정했다. 이는 도구의 유용성을 저해하지 않으면서도 엣지 케이스까지 신뢰성 있게 처리할 수 있는 안전장치를 확보해야 하는 업계 전체의 과제를 반영한다. 이에 따라 구글은 향후 심리적 위기 상황을 더 정확히 감지하고 대응하도록 모델을 개선하기 위해 안전 분야 투자를 지속할 방침이다.