OpenAI, 총기 사건 보고 누락으로 공식 사과
- •OpenAI는 캐나다 총기 난사 사건 전, 관련 사용자의 ChatGPT 계정을 일시 정지함.
- •회사는 해당 계정의 활동 내용을 법 집행 기관에 보고하지 않는 과오를 범함.
- •CEO 샘 알트먼(Sam Altman)은 핵심적인 소통 부재를 인정하며 공식 사과함.
인공지능과 공공 안전의 교차점을 보여주는 이번 사안을 통해 OpenAI는 중대한 절차적 실수를 인정하고 공식 사과했다. 내부 자동화 시스템이 캐나다 총기 난사 사건과 관련된 유해 콘텐츠를 감지하자 OpenAI는 해당 사용자의 ChatGPT 계정을 정지했다. 하지만 위험을 인지했음에도 불구하고, 사건 발생 전 사용자의 의도나 디지털 흔적을 사법 당국에 능동적으로 알리지 않았다.
이번 사건은 플랫폼이 불법 행위에 악용될 때 기술 기업이 져야 할 '주의 의무(duty of care)'에 대해 긴급한 의문을 제기한다. 인공지능의 발전 방향을 지켜보는 대학생들에게 이번 사례는 AI 모델이 진공 상태에서 존재하는 것이 아님을 상기시킨다. AI는 사회 구조 깊숙이 박혀 있으며, 우리가 설계하는 안전 조치는 디지털 인터페이스를 넘어 현실 세계에 실질적인 결과를 초래한다.
핵심 문제는 LLM 자체의 성능이라기보다, 기업이 오남용을 감시하고 보고하는 운영 프로토콜에 있다. 대부분의 AI 기업은 인간의 가치에 따라 모델이 행동하도록 보장하는 안전 정렬(safety alignment)에 막대한 투자를 한다. 그러나 이번 사례는 실제 위험 신호를 법 집행으로 연결해야 할 '인간 중심 워크플로우(human-in-the-loop)'에 명확한 공백이 있음을 보여준다.
이 사태의 중심에 있는 샘 알트먼(OpenAI CEO)은 어떻게 이러한 치명적인 보고 누락이 발생했는지에 대해 거센 비판을 받고 있다. 샘 알트먼의 사과는 필요하지만, 시스템이 강력해질수록 표준화된 보고 요건이 부재한 상황이 체계적인 위험을 초래한다고 주장하는 비판자들을 달래기에는 부족하다. 이는 AI 제공자가 언제 서비스 제공자를 넘어 폭력적 의도를 반드시 알려야 하는 '의무 신고자'가 되어야 하는가에 대한 논쟁을 불러일으켰다.
향후 업계는 안전 강화 패키지에 더 강력한 법적 보고 채널을 통합하라는 압박을 받을 것으로 보인다. 이번 사건은 AI 규제 프레임워크가 일반적인 안전 가이드라인에서 데이터 공개에 관한 구체적이고 강제적인 법령으로 전환되는 계기가 될 수 있다. 우리가 AI를 일상에 통합함에 따라, 신뢰 구축에는 단순한 기술적 정밀함을 넘어 기관의 책임감과 공공 안전을 향한 엄격한 헌신이 요구될 것이다.