OpenAI, 위협 신고 누락으로 비판 직면
- •OpenAI는 캐나다에서 발생한 총기 사건 이전, 신고된 사용자 위협을 당국에 보고하지 않았다.
- •샘 알트먼(Sam Altman) 최고경영자(CEO)는 회사의 안전 대응 프로토콜에 내부적인 실수가 있었음을 인정하며 사과했다.
- •내부 검토 결과, 해당 사용자의 행동은 공식적인 수사 기관 의뢰 기준에 미치지 못한 것으로 판단되었다.
인공지능 플랫폼이 일상적인 디지털 상호작용의 핵심으로 자리 잡으면서, 안전 모니터링의 책임은 단순한 콘텐츠 중재를 넘어 실제 물리적 위협을 식별하는 단계로 확장되었다. 최근 OpenAI가 캐나다 총기 사건의 전조가 된 사용자 행동을 적절히 조치하지 못한 사례는 인공지능 시스템이 짊어진 막중하고도 보이지 않는 압박을 여실히 보여준다. 인공지능 모델이 의사소통의 통로 역할을 수행할 때, 과장된 표현과 실제 실행 가능한 위협을 구별해내는 것은 매우 고난도의 과제다.
이번 사건에서 OpenAI는 자사 안전 프로토콜을 통해 해당 사용자의 계정을 이미 식별했음을 인정했다. 하지만 당시 내부적으로는 그 위험성이 공식적인 법적 신고를 수행할 기준에 도달하지 않았다고 판단했다. 이러한 결정은 인공지능 거버넌스에서 매우 우려스러운 ‘회색 지대’를 형성하는데, 자동화된 안전 필터가 물리적 세계의 개입을 결정하는 시점이 어디인가에 대한 근본적인 의문이 남는다.
머신러닝 모델은 언어적 패턴을 인식하도록 설계되었지만, 인간이 가진 위험의 맥락, 의도, 미묘한 차이를 파악하는 데는 여전히 한계를 보인다. OpenAI의 대표인 샘 알트먼이 공식 사과문을 발표하면서 이 사건은 국내외 정책 논의의 중심에 서게 되었다. 이는 신기술 윤리를 공부하는 대학생들에게 ‘거짓 음성(false negative)’, 즉 위험한 입력을 놓치는 인공지능의 오류가 단순한 이론적 문제가 아니라 현실 세계에 치명적인 결과를 초래할 수 있음을 보여주는 비극적인 사례다.
엔지니어링의 과제는 단순히 정밀도나 재현율을 높이는 것에 그치지 않는다. 인공지능이 디지털과 물리적 세계의 경계를 넘나드는 순간, 우리는 어떻게 책임 있는 대응 체계를 구축할 것인가를 고민해야 한다. 규제 당국은 점차 기업의 ‘주의 의무(duty of care)’에 대한 명확한 기준을 요구하고 있으며, 인공지능 기업이 공공 영역에서 운영되려면 알고리즘의 의사결정과 인간의 감독 사이의 간극을 반드시 메워야 한다.
자동화된 시스템이 모호하다고 판단한 위협조차 보고하지 않는 상황은 기존의 블랙박스 안전 모델에 대한 근본적인 회의를 불러일으킨다. 결론적으로 이번 사건은 인공지능 안전의 미래가 단순한 공학적 난제가 아님을 입증한다. 이는 소프트웨어가 생성한 통찰을 인간이 직접 확인하고, 검증하며, 행동으로 옮기는 사회적 책임의 문제임을 시사한다.