AI 시각 모델의 고질적 편향성 해결법, WRING
- •새로운 WRING 기법을 통해 부작용 없이 AI 시각 모델의 편향성을 효과적으로 완화한다.
- •모델을 처음부터 다시 학습시킬 필요 없이 사후 보정으로 리소스를 절감한다.
- •의료 AI 분야에서 안전성을 높이기 위해 개발된 혁신적인 방법론이다.
인공지능 모델은 산업 전반에 혁신을 가져오고 있지만, 데이터 편향이라는 고질적인 문제에 직면해 있다. 만약 피부암 진단 AI가 다양한 피부색 데이터를 충분히 학습하지 못했다면, 특정 인종에게 치명적인 오진을 내릴 위험이 크다. 그동안 연구자들은 이러한 문제를 해결하기 위해 두더지 잡기 게임과 같은 소모적인 방식에 매달려 왔다.
기존의 '투영 편향 제거(projection debiasing)' 기술은 모델 내부의 특정 정보를 강제로 제거하여 편향을 없애려 시도한다. 그러나 이 방식은 모델의 지능을 훼손하는 부작용을 낳기도 한다. 예를 들어 인종 편향을 해결하려다 성별 편향이 발생하는 등, 의도치 않은 오류가 연쇄적으로 발생하며 전체 시스템의 신뢰도가 떨어지는 문제가 생기곤 한다.
이러한 맥락에서 '가중 회전 편향 제거(Weighted Rotational DebiasING)'를 뜻하는 WRING이 주목받고 있다. 최근 국제학습표현학회(ICLR)에서 발표된 이 기술은 데이터를 단순히 삭제하는 대신, 고차원 공간 내 좌표를 부드럽게 회전시키는 방식을 택한다. 이는 모델이 기존에 학습한 지식은 유지하면서도, 편향된 특성만을 교묘하게 가려내는 정교한 접근이다.
운영 측면에서의 장점 또한 뚜렷하다. WRING은 이미 학습이 완료된 모델에 적용 가능한 사후 처리 기법이다. 거대하고 복잡한 시스템을 처음부터 다시 학습시키려면 막대한 컴퓨팅 자원과 비용이 소모되는데, WRING을 사용하면 비용 효율적으로 실시간 모델 보정이 가능하다. 덕분에 병원과 같은 민감한 현장에서도 안정성을 희생하지 않으면서 높은 안전 기준을 유지할 수 있게 되었다.
현재 이 연구는 컴퓨터가 이미지를 인식하고 단어와 연결하는 Vision-Language Models의 대표 격인 Contrastive Language-Image Pre-training 모델에 집중하고 있다. 연구진은 이를 넘어 현대 챗봇을 구동하는 생성형 언어 모델까지 적용 범위를 넓힐 계획이다. 마르지예 가세미(Marzyeh Ghassemi, AI 의료 연구자)가 참여한 본 연구는 단순히 특정 오류를 수정하는 것을 넘어, AI가 의료 인프라의 핵심 도구가 되었을 때 배경이나 인구 통계적 특성에 관계없이 모든 이들에게 공평한 결과를 제공하는 데 기여할 것으로 기대된다.