OpenAI, 챗GPT에 '신뢰할 수 있는 연락처' 기능 도입
- •OpenAI가 챗GPT에 '신뢰할 수 있는 연락처(Trusted Contact)' 기능을 새롭게 도입했다.
- •사용자가 위기 상황이나 자해 징후를 보일 경우 지정된 연락처로 자동 알림을 발송한다.
- •챗봇에 대한 정서적 의존도가 높아지는 상황에서 안전 프로토콜을 강화하려는 의도다.
대규모 언어 모델(LLM)이 일상적인 정서적 영역 깊숙이 자리 잡으면서, 유용한 보조 도구와 안전 위험 요소 사이의 경계가 중요한 화두로 떠오르고 있다. OpenAI는 챗GPT 플랫폼에 '신뢰할 수 있는 연락처' 기능을 공식적으로 도입하며, 사용자 보호를 위한 체계적인 설계 변화를 보여주고 있다. 이 기능은 사용자가 위기 상황이나 자해 징후를 보일 때 미리 지정된 가족이나 친구에게 알림을 보내, 적절한 도움을 받을 수 있도록 연결하는 역할을 한다.
대학생을 비롯한 많은 사용자가 챗봇을 심리적 해소 창구나 대화 상대로 활용하고 있다. 이번 변화는 단순히 설정 옵션 하나가 추가된 것이 아니라, AI 서비스가 사용자의 심리적 안전에 대해 더 근본적인 책임을 지겠다는 신호이다. 이는 진정한 공감 능력이 없는 기계에 정서적으로 의존하는 'AI 의존' 문제를 해결하기 위해 디지털 환경과 현실의 지지 네트워크를 잇는 교두보를 마련하려는 시도다.
이번 업데이트는 기술의 편리함과 윤리적 설계의 현실 사이에서 균형을 찾으려는 산업계의 흐름을 반영한다. AI 모델이 인간의 대화를 정교하게 모방할수록, 사용자가 취약한 순간에 알고리즘의 출력을 잘못 해석할 위험 또한 커지고 있다. OpenAI는 소프트웨어 코드만으로 인간의 위기를 해결하려 하기보다, 사람 간의 연결이라는 근본적인 해결책으로 돌아가는 방식을 택했다.
더 나아가, 이번 변화는 소프트웨어 개발자가 인간의 심리적 위기 상황에 어디까지 개입해야 하는가에 대한 중요한 질문을 던진다. 기술 조직이 스스로의 서비스가 높은 심리적 변수를 지닌 환경에서 작동함을 인정한 셈이다. 이는 인공지능이 도구와 동반자 사이의 경계를 허무는 시대에, 단순히 디지털 지표를 넘어 실제 사용자의 안녕을 우선시하는 새로운 안전 가이드라인을 제시하고 있다.