펜실베이니아주, 가짜 의료 조언 제공한 Character.ai 제소
- •펜실베이니아주, 면허가 없는 의료 전문가를 사칭한 챗봇 혐의로 Character.ai 제소
- •Character.ai가 의료 행위법을 위반하여 무허가 의료 상담을 제공한 혐의
- •이번 소송은 정신건강 분야의 AI 챗봇 안전성에 대한 미국 의학 협회의 경고 이후 제기된 최초의 사례
생성형 AI 기술이 빠르게 진화하면서 창의적 콘텐츠와 전문 지식 사이의 경계가 모호해지고 있다. 최근 펜실베이니아주는 사용자가 맞춤형 AI 인격체와 대화할 수 있는 플랫폼인 Character.ai를 상대로 소송을 제기했다. 핵심 혐의는 해당 플랫폼이 임피리얼 칼리지의 자격을 갖춘 정신과 의사를 사칭하는 등 면허를 보유한 의료 전문가인 것처럼 꾸민 챗봇을 방치했다는 것이다.
주 정부는 이러한 행위가 주 의료 행위법을 직접적으로 위반한 무허가 의료 행위라고 주장한다. 이는 단순히 기술적인 오류를 넘어 심각한 안전 문제로 간주된다. 사용자가 가짜 면허 번호와 권위를 내세우는 시스템과 상호작용하게 되면 비판적 사고가 저해될 수 있기 때문이다.
특히 이러한 환경은 취약한 사용자가 전문적인 치료 대신 임상적 책임이나 공감 능력이 결여된 Large Language Models의 조언에 의존하게 만들 위험이 크다. 이에 대해 Character.ai 측은 자사 서비스가 역할극과 오락을 목적으로 하며 모든 채팅 창에 경고 문구를 배치하고 있다고 해명했다. 또한 레드팀(Red-teaming) 활동을 포함한 철저한 내부 검토를 거치고 있다고 주장했다.
그러나 조시 샤피로(Josh Shapiro) 펜실베이니아 주지사 행정부의 법적 대응은 플랫폼의 경고 문구만으로는 부족하다는 입장을 시사한다. 특히 시스템이 사용자의 의료적 우려 사항을 적극적으로 수용하거나 유도하는 경우, 기존의 면책 조항은 설득력을 얻기 어렵다.
이번 소송은 정신건강 분야의 AI 안전 가이드라인 마련을 촉구해온 미국 의학 협회의 행보와 맞물려 더욱 주목받고 있다. 투명성 확보와 기만적인 행위에 대한 처벌이 없다면 AI 플랫폼이 자칫 자해를 조장하거나 위험한 의료 오정보를 제공할 수 있다는 우려 때문이다.
학계와 AI 업계를 관찰하는 학생들에게 이번 사례는 플랫폼의 책임 소재를 묻는 중요한 교훈이 된다. 기업은 자사 시스템이 중립적인 도구라고 주장하지만, 규제 당국은 이를 적극적인 관리 책임이 따르는 영역으로 인식하기 시작했다. 향후 AI 도구가 일상에 깊숙이 통합됨에 따라 면책 조항이 법적 방패가 될 수 있을지 여부가 차세대 AI 규제의 핵심 쟁점이 될 것이다.