OpenAI, 사용자 안전 위한 ‘Trusted Contact’ 기능 도입
- •OpenAI는 위기 상황 시 긴급 연락처를 지정할 수 있는 ‘Trusted Contact’ 기능을 도입했다.
- •해당 기능은 자동화된 시스템 탐지와 전문 검토 인력의 확인을 거친 후 작동한다.
- •사용자 개인정보 보호를 위해 대화 전문은 공유하지 않으며, 안부 확인을 권장하는 알림만 발송한다.
인공지능은 학습 보조자부터 브레인스토밍 파트너, 복잡한 고민을 나누는 상담자까지 우리 일상의 핵심적인 부분으로 자리 잡았다. 기술이 디지털 삶의 중심이 됨에 따라, 도구를 개발하는 기업들이 사용자의 안전을 책임져야 한다는 목소리도 커지고 있다. 이러한 흐름 속에 OpenAI는 최근 ChatGPT 내에 'Trusted Contact' 기능을 도입하며 사용자 안전을 위한 실질적인 발걸음을 내디뎠다.
이 기능은 일종의 '디지털 안전망' 역할을 수행하도록 설계되었다. 사용자는 자신의 친구, 가족, 혹은 보호자를 긴급 연락처로 지정할 수 있으며, 시스템이 사용자에게 심각한 자해 징후나 극심한 정서적 고통을 감지할 경우 이들에게 알림이 전달된다. 무엇보다 중요한 점은 기능의 운용 방식이 매우 신중하고 인간 중심적이라는 사실이다.
OpenAI는 단순히 자동화된 알고리즘의 판단에만 의존하지 않는다. 알고리즘은 때로 문맥을 오해하거나 과민하게 반응할 수 있기 때문이다. 이에 따라 시스템이 위험 징후를 감지하면, 이를 전문 교육을 받은 인력들이 직접 검토하는 단계가 필수적으로 포함된다. 이러한 인간 검토 과정을 거친 뒤에야 알림 발송이 이루어지며, 보통 한 시간 이내에 조치가 완료되도록 설계되었다.
개인정보 보호 또한 이번 기능의 핵심이다. 지정된 연락처로 발송되는 알림은 대화 내용을 포함하지 않으며, 사용자의 안부를 챙겨달라는 간결한 메시지만 담긴다. 이는 사용자의 사생활을 보호하는 동시에, 위기 상황에서 주변의 지지 기반이 신속하게 도움을 줄 수 있도록 균형을 맞춘 결과다.
이번 이니셔티브는 단순한 기능 추가를 넘어, AI와의 상호작용 속에 강력한 안전 프로토콜을 구축하려는 전략의 일환이다. OpenAI는 미국심리협회(American Psychological Association) 및 자체 글로벌 의사 네트워크와 협력하여, 단순히 유해한 콘텐츠를 걸러내는 수준을 넘어 실제 현실 세계의 자원과 인간적 연결을 잇는 통로가 되고자 한다. 이는 거대언어모델(LLM)이 즉각적인 정보를 제공할 수는 있지만, 전문적인 정신 건강 관리나 인간의 따뜻한 지지를 대체할 수는 없다는 기본 원칙을 반영한다.
ChatGPT를 파트너로 활용하는 학생과 사용자들에게 이번 업데이트는 개인적인 공간에 고도화된 기술을 도입할 때 필요한 세심한 접근 방식을 상기시킨다. 특히 민감한 서비스 영역에서 인간이 의사결정 과정에 직접 참여하는 '휴먼 인 더 루프(Human-in-the-loop)' 시스템의 중요성을 잘 보여준다. 앞으로 AI가 더욱 보편화됨에 따라, 알고리즘의 탐지 능력과 인간의 케어를 연결하는 이러한 협업형 안전 프레임워크는 업계 표준이 될 것으로 전망된다.