미국 의학 협회, 정신 건강 AI에 대한 규제 촉구
- •미국 의학 협회는 의회에 AI 기반 정신 건강 챗봇을 위한 필수 안전 가이드라인 마련을 촉구한다.
- •개인정보 보호, 정서적 의존성 및 AI가 자해를 유발할 가능성에 대한 우려가 핵심이다.
- •제안된 프레임워크에는 자살 위험 감지 기능 의무화와 치료용 도구에 대한 FDA 검토가 포함된다.
인공지능이 정신 건강 관리라는 섬세한 영역에 빠르게 통합되면서 규제 당국과 임상의들 사이에서 새로운 갈등이 발생하고 있다. 환자들이 기존의 의료 체계를 건너뛰고 챗봇에게 즉각적인 조언을 구하는 사례가 늘어남에 따라, 미국 의학 협회(American Medical Association)는 이러한 디지털 도구가 환자에게 해를 끼치지 않도록 강력한 연방 프레임워크를 마련할 것을 의회에 강력히 요구하고 나섰다.
이번 요구는 혁신에 대한 반대가 아니라, 실리콘밸리의 빠른 배포 주기와 '해를 끼치지 말라'는 의학적 원칙 사이의 관계를 재조정하려는 움직임이다. 미국 의학 협회가 강조하는 핵심은 사용자층의 취약성이다. 정신 건강 위기를 겪는 개인이 챗봇과 상호작용할 때 발생하는 권력 구조는 본질적으로 위험을 내포하고 있다.
대화형으로 설계된 현재의 생성형 기술들은 때때로 일상적인 문의와 임상적 응급 상황을 구분하지 못하는 한계를 보인다. 시스템이 자살 충동이나 자해 위험을 식별할 임상적 안전장치를 갖추지 못한다면, 사실상 오류가 허용되지 않는 환경에서 규제받지 않는 의료기기로 작동하는 것과 다름없다.
이를 해결하기 위해 의사 협회는 의회가 감독의 공백을 메울 수 있도록 단계적인 규제 접근 방식을 제안하고 있다. 특히 정신 건강 상태를 진단하거나 치료한다고 주장하는 도구들이 미국 식품의약국(FDA)의 검토를 받도록 의무화해야 한다는 점이 핵심이다. 이는 기술 업계의 '빠르게 움직여서 문제를 해결하라'는 관행에서 벗어나 표준화된 성능 및 안전성 모니터링을 강제하려는 의도이다.
임상적 상호작용을 넘어 미국 의학 협회의 요구는 데이터 보안과 상업적 윤리 구조 전반에 걸쳐 있다. 이들은 사용자가 기계와 대화하고 있음을 명확히 인지해야 한다는 투명성 확보와 아동을 겨냥한 광고 금지를 강력히 주장한다. 또한, 데이터 센터의 작은 취약점이 개인의 가장 민감한 대화 내용을 노출시킬 수 있다는 점을 지적하며 사이버 보안 안전장치의 필요성을 역설했다.
그동안 연방 정부가 대체로 규제 완화 기조를 유지해 왔다는 점에서, 이번 미국 의학 협회의 개입은 의료계가 더 이상 기술 배포에 내재된 위험에 대해 자율 규제에만 의존하지 않겠다는 중요한 신호로 평가된다.