OpenAI, 청소년 보호 위한 AI 안전 도구 출시
- •OpenAI가 개발자들이 청소년 사용자에게 적합한 연령별 보호 조치를 구현할 수 있도록 돕는 프롬프트 기반 안전 정책을 발표했다.
- •새로운 안전 가이드라인은 gpt-oss-safeguard와 통합되어 자해, 성적 콘텐츠, 위험 활동 등의 리스크를 분류한다.
- •청소년 안전에 관한 업계 전반의 협력을 장려하기 위해 해당 프레임워크를 ROOST Model Community를 통해 오픈 소스로 공개했다.
OpenAI가 AI 기반 애플리케이션 내에서 개발자들이 청소년 사용자를 안전하게 보호할 수 있도록 설계된 전용 프롬프트 기반 안전 정책 제품군을 선보였다. 미성년자가 성인과는 다른 수준의 디지털 보호가 필요하다는 점을 인식하여, 해당 정책들을 자사의 오픈 웨이트 모델인 gpt-oss-safeguard와 직접 연동되는 실행 가능한 프롬프트 형태로 구성했다. 이러한 접근 방식은 추상적인 윤리적 목표를 실시간 콘텐츠 필터링이나 과거 사용자 데이터 분석이 가능한 기능적 코드로 변환하는 복잡한 과정을 간소화한다.
초기 버전은 생생한 폭력 묘사, 성적 콘텐츠, 해로운 신체 이미지 등 청소년 발달에 우려되는 6가지 핵심 영역을 다룬다. OpenAI는 사전에 설정된 프롬프트를 제공함으로써 '로맨틱 역할극'이나 '위험한 소셜 미디어 챌린지'와 같은 민감한 주제에 대해 정밀한 운영 규칙을 정의하는 데 어려움을 겪는 개발자들의 진입 장벽을 낮추고자 한다. 특히 해당 도구들은 커먼 센스 미디어와 everyone.ai의 아동 안전 전문가들과의 협업을 통해 다듬어졌으며, 가이드라인에 청소년의 취약성에 관한 최신 심리학 연구 결과가 반영되도록 보장했다.
이니셔티브는 단일 방어선에 의존하기보다 다중 보호 계층을 활용하는 보안 전략인 심층 방어로의 광범위한 변화를 시사한다. 이러한 정책들은 견고한 출발점을 제공하지만, OpenAI는 이것이 모든 문제를 해결하는 만능 솔루션은 아님을 강조한다. 이에 따라 개발자들은 각 플랫폼의 고유한 특성에 맞춰 오픈 소스 템플릿을 반복적으로 개선해 나갈 것을 권장받는다. ROOST Model Community GitHub에 이러한 자원을 공개함으로써 글로벌 오픈 웨이트 생태계 전반에 표준화된 안전 기준을 마련하기를 기대하고 있다.