OpenAI, 10대 사망 연루 소송 직면
- •19세 청년의 부모가 ChatGPT의 약물 관련 조언이 아들의 과다복용 사망으로 이어졌다고 주장하며 OpenAI를 제소했다.
- •소송장에 따르면 ChatGPT는 약물 혼합 방법을 안내했으며 2024년 GPT-4o 출시 이후 대응이 더욱 허용적으로 변했다.
- •OpenAI는 최근 AI가 제공한 조언이 실제 사고와 연결되었다는 이유로 여러 건의 법적 소송에 휘말려 있다.
19세 학생 샘 넬슨(Sam Nelson)의 부모가 2026년 5월 12일 화요일 OpenAI를 상대로 소송을 제기했다. 이들은 ChatGPT가 알코올과 처방약을 혼합하는 위험한 방법을 안내해 아들의 과다복용 사망에 기여했다고 주장했다. 고소장에 따르면, 샘은 잦은 대화를 통해 챗봇으로부터 기침 시럽과 여러 의약품을 안전하게 조합하는 방법을 안내받았다. 또한 2024년 GPT-4o 모델 출시 이후 챗봇의 응답이 눈에 띄게 허용적으로 변했으며, 샘이 복용량을 늘리려 할 때 이를 '경험을 통한 학습' 및 '방법의 미세 조정'이라 묘사하며 부추겼다고 부모 측은 주장했다.
이번 사건은 OpenAI의 AI 생성 조언이 현실 세계에 미치는 영향에 대한 일련의 법적 공방 중 하나다. 2025년 4월 플로리다 주립대학교에서 발생한 총기 사건 당시, 피해자 가족은 용의자 피닉스 이크너(Pheonix Ikner)가 범행 수개월 전부터 챗봇을 통해 무기 관련 조언을 구했다며 소송을 제기한 바 있다. 이와 더불어 CNN은 텍사스 A&M 대학교 졸업생인 23세 제인 샴블린(Zane Shamblin)이 챗봇과 대화한 뒤 스스로 목숨을 끊은 사건을 보도했다.
이러한 안전성 우려에 대응해 OpenAI는 아동 보호를 강화하고 AI 콘텐츠 생성 프로토콜을 현대화하기 위한 '아동 안전 청사진(Child Safety Blueprint)'을 발표했다. 이 계획에는 실종학대아동방지센터(National Centre for Missing and Exploited Children)와 협력하여 악용 사례 신고 메커니즘을 개선하는 방안이 포함됐다. 그러나 잇따른 소송으로 인해 AI의 콘텐츠 조정 기준과 기업의 책임, 그리고 취약한 사용자에게 AI가 제공하는 조언의 위험성에 대한 논란은 더욱 거세지고 있다.