MIT 연구진, 의료 AI의 환자 개인정보 '암기' 및 유출 위험 경고
- •의료용 AI가 데이터를 학습하는 과정에서 특정 환자의 민감한 정보를 통째로 외워버리는 위험성이 확인됐다.
- •희귀 질환 환자처럼 정보가 독특할수록 AI 모델을 통한 신원 노출 위험이 더 커진다.
- •단순한 익명화를 넘어, 모델 공개 전에 개인정보 유출 여부를 확인하는 엄격한 보안 테스트 도입이 필요하다.
의료계에서 환자의 비밀 유지 의무는 환자와 의사 사이의 신뢰를 유지하는 핵심 원칙 중 하나다. 하지만 최근 인공지능 기술이 의료 현장에 도입되면서, 방대한 전자 건강 기록을 학습한 AI가 의도치 않게 환자의 민감한 개인정보를 유출할 수 있다는 우려가 커지고 있다. MIT 연구진은 최근 발표한 논문을 통해 의료용 파운데이션 모델이 학습 과정에서 일반적인 의학 지식을 습득하는 수준을 넘어, 특정 환자의 기록을 그대로 기억해 버리는 암기 현상을 확인했다. 이는 일반화를 통해 보편적인 예측을 수행해야 할 AI가 개별 환자의 데이터를 복사하듯 저장해, 악의적인 공격자가 특정 질문을 던졌을 때 해당 정보를 그대로 답변할 수 있음을 뜻한다. 특히 에이즈(HIV) 진단 기록이나 알코올 남용 사례처럼 민감한 정보가 노출되면 환자의 삶에 치명적인 피해를 줄 수 있다. 연구팀의 실험 결과, 공격자가 환자에 대해 더 많은 기초 정보를 알고 있을수록 AI로부터 더 깊은 수준의 개인정보를 끌어낼 확률이 높아졌다. 특히 희귀 질환 환자는 데이터의 희소성 때문에 AI가 더 쉽게 기억하게 되어 유출 위험에 더 취약한 것으로 나타났다. 이에 연구진은 AI 모델을 대중에게 공개하기 전에 반드시 거쳐야 할 엄격한 보안 평가 체계를 제안했다. 단순히 데이터를 익명화하는 것만으로는 충분하지 않으며, AI가 특정 데이터를 암기했는지 여부를 실질적으로 테스트해야 한다는 주장이다. 이번 연구는 AI 기술이 의료 서비스의 질을 높이는 동시에, 환자의 사생활을 보호하기 위한 법적·기술적 안전장치 마련이 얼마나 시급한 과제인지 보여준다.