OpenAI, 학교 총기 사건 관련 법적 책임 직면
- •총기 사건 희생자 유가족, OpenAI와 샘 알트먼(Sam Altman)을 상대로 7건의 연방 소송 제기
- •원고 측은 기업이 안전보다 수익을 우선시하여 핵심적인 플랫폼 안전 장치를 미비하게 운영했다고 주장
- •이번 소송은 폭력적 사건에서 대규모 언어 모델의 활용에 대한 법적 책임 소재를 가리는 중요한 전환점이 될 전망
인공지능과 공공 안전의 교차점이 엄중한 변곡점을 맞이했다. 최근 캐나다의 한 학교에서 발생한 총기 사건의 유가족들이 OpenAI를 상대로 일련의 연방 소송을 제기했기 때문이다. 이들이 제기한 논점은 단순한 기술적 결함을 넘어 윤리적, 경제적 책임에 집중되어 있다. 원고 측은 OpenAI가 ChatGPT 플랫폼 내에 생명을 보호할 강력한 안전 장치를 마련하는 것보다 빠른 확장과 수익성 향상을 우선시했다고 주장한다.
일반 사용자들은 이번 소송의 핵심 갈등을 이해할 필요가 있다. 인공지능 안전이란 모델이 인간의 가치와 안전 가이드라인에 부합하도록 만드는 메커니즘을 의미한다. RLHF와 같은 기술을 통해 구현되는 이러한 안전 장치는 모델이 유해하거나 불법적이고 폭력적인 지침을 생성하지 못하도록 막는 울타리 역할을 한다. 원고들은 이러한 안전망이 충분치 않았거나, 혹은 사용자 참여와 상업적 이익을 극대화하기 위해 의도적으로 무시되었다고 비판한다.
이번 사건의 파장은 단순한 비극을 넘어 글로벌 인공지능 기업들의 규제 환경을 재편할 잠재력을 지니고 있다. 만약 법원이 플랫폼 개발사가 극단적인 시나리오에서 모델의 결과물이나 오남용에 대해 법적 책임을 져야 한다고 판단한다면, 인공지능 기업들의 운영 방식은 급격히 변화할 것이다. 이는 과거 소셜 미디어 플랫폼이 중립적 인프라 제공자와 책임 있는 발행인 사이의 경계를 정의해야 했던 초기 법적 분쟁과 유사한 양상을 띠고 있다.
대학생의 관점에서 인공지능의 미래를 바라볼 때, 이른바 '정렬 문제(Alignment Problem)'를 법적 렌즈로 고찰해 볼 필요가 있다. 컴퓨터 과학 분야에서 정렬은 모델이 요청대로 작동하게 만드는 기술적 성공으로 정의되지만, 사회적 차원에서의 정렬은 훨씬 더 넓고 복잡하다. 이는 모델의 행동이 실세계에 미치는 2차, 3차적인 결과에 대한 책임까지 포함하는 개념이다.
결국 이번 연방 소송의 결과는 인공지능 업계의 새로운 안전 표준을 강제할 수 있으며, '책임 있는' 인공지능 개발의 기준을 높이는 계기가 될 것이다. 우리는 인터넷 초기의 '빠르게 움직이고 부수라'는 시대에서 기술적 실패가 인간에게 막대한 고통을 줄 수 있는 성숙한 시대로 전환하는 과정을 목격하고 있다. 오늘날 OpenAI가 직면한 감시는 향후 10년간 강력한 생성형 기술을 배포하는 모든 조직의 표준 운영 절차가 될 가능성이 높다.