OpenAI, AI 안전 연구 지원을 위한 펠로우십 프로그램 발표
- •OpenAI가 AI의 안전성, 정렬, 그리고 고위험 요소를 연구할 연구자들을 위한 펠로우십을 시작한다.
- •해당 프로그램은 2026년 9월부터 2027년 2월까지 진행되며, 선정된 그룹에는 지원금과 컴퓨팅 자원이 제공된다.
- •사회과학 및 사이버 보안 등 다양한 배경을 가진 연구자를 포함하며, 2026년 5월 3일까지 신청받는다.
AI 시스템의 영향력이 커짐에 따라 이론적인 안전 연구를 실제 현장에 적용하는 일은 업계의 핵심 과제로 떠올랐다. 이에 OpenAI는 외부 전문가들과 협력하여 시급한 안전 문제를 해결하고자 새로운 'Safety Fellowship' 프로그램을 시작한다. 이는 기업 내부의 폐쇄적인 연구 방식만으로는 복잡한 정렬 문제를 해결할 수 없다는 판단에 따른 전략적 변화다.
이번 프로그램은 2026년 9월부터 2027년 2월까지 진행되며, 엔지니어와 연구자들이 고도의 안전성 연구에 집중할 수 있는 환경을 제공한다. 주요 연구 분야에는 기술적 견고함, 윤리, 개인정보 보호 기술, 그리고 자율 시스템을 관리하는 에이전트 감독 기술 등이 포함된다. 무엇보다 컴퓨터 과학뿐만 아니라 사회과학 전문가를 폭넓게 영입함으로써, AI 안전이 기술적 영역을 넘어 인간 중심적인 문제임을 강조한다.
참가자들은 원격으로 작업하거나 버클리에 위치한 Constellation 허브에서 동료들과 교류할 수 있다. 독립 연구자들에게 가장 큰 제약 요소인 자금과 컴퓨팅 자원을 지원한다는 점이 이 프로그램의 큰 장점이다. 단순히 이론에 그치지 않고 새로운 벤치마크나 데이터셋 구축과 같은 가시적인 연구 성과를 도출하는 데 중점을 둔다.
이번 행보는 고위험 오용 분야에 대한 강력한 안전 프로토콜이 필요하다는 인식을 반영한다. OpenAI는 시스템에 대한 내부 접근 권한을 완전히 개방하는 대신, 외부 인재들을 통해 시스템의 취약점을 점검하며 개방형 연구와 운영 보안 사이의 균형을 찾으려 한다. 대학생들에게는 미래의 강력한 AI가 사회 인프라에 통합되기 전, 어떻게 통제되고 가치에 부합하도록 설계되는지를 직접 경험할 수 있는 기회가 될 것이다.