의료계 AI 도입, 신뢰 위기 부추기는 독 될까
- •ChatGPT Health, 응급 상황 테스트 사례의 절반에서 잘못된 진단 내려
- •엄격한 안전성 검토 없는 AI 도입으로 의료계 신뢰도 40%까지 급락
- •알고리즘 편향성과 투명성 부족이 소외 계층의 치료 결과 위협
의료 현장과 인공지능의 결합이 중대한 걸림돌에 직면했다. 무엇보다 기술에 대한 투자 속도가 인간의 신뢰가 쌓이는 속도를 앞지르고 있기 때문이다. 주요 연구소들이 의료 특화 프로젝트를 밀어붙이고 있으나, 초기 성적표는 우려스러운 수준이다. 실제로 ChatGPT Health를 대상으로 진행한 최근 평가 결과, 응급 상황에서 치명적인 케어를 지연시키라고 잘못 제안하는 등 오답률이 50%에 달하는 것으로 나타났다. 이는 단순한 기술적 오류를 넘어, 공공 안전이 검증되기 전에 도구를 성급히 현장에 투입하는 시스템적 조급증이 낳은 결과다.
이러한 기술적 공세는 미국 의료계에 대한 신뢰가 4년 만에 72%에서 40%로 급락하며 역대 최저치를 기록한 시점과 맞물려 있다. 특히 소외 계층에게 AI는 역사적 불신에 또 다른 층위의 복잡성을 더하고 있으며, 이는 주로 알고리즘 편향성으로 나타난다. 대표적인 사례로 의료비 지출 규모를 건강 상태의 척도로 삼는 대리 차별(Proxy discrimination) 방식의 알고리즘은 흑인 환자의 질병 중증도를 체계적으로 과소평가했다. 보험사들이 고령층의 돌봄 거부율을 높이기 위해 자동화 도구를 활용하면서, 기업의 효율성과 환자의 복지 사이의 간극은 더욱 벌어지고 있다.
문제의 핵심은 데이터의 투명성과 거버넌스에 있다. 작년 한 해 의료 시스템은 방대한 환자 데이터를 기반으로 AI 도구에 14억 달러를 쏟아부었다. 그러나 대다수 환자는 자신의 진단 과정에 이러한 모델이 언제 개입하는지조차 인지하지 못하고 있다. 이에 전문가들은 환자의 참여가 단순한 자문을 넘어 실질적인 의사결정 권한을 갖는 방향으로 전환되어야 한다고 강조한다. 앞으로 의료 업계는 기술이 해를 끼치지 않고 치유의 도구가 될 수 있도록 성능 보고와 명확한 정보 공개를 최우선 순위에 두어야 할 것이다.