메타 AI 비제로섬 게임 도입으로 인공지능 안전성 대폭 강화
- •메타 AI는 공격자와 방어자 모델을 동시에 학습시키는 비제로섬 게임 기반의 'AdvGame' 방법론을 공개했다.
- •온라인 강화학습과 쌍체 보상 시스템을 활용해 모델의 안전성과 유용성 사이의 최적 균형점을 획기적으로 개선했다.
- •고도화된 공격자 모델은 다른 인공지능 시스템의 취약점을 정밀하게 점검하는 강력한 레드팀 에이전트로 활용될 전망이다.
안셀름 파울루스와 일리아 쿨리코프를 비롯한 메타 AI 소속 연구진은 인공지능 언어 모델을 인간의 가치에 더욱 효과적으로 정렬시키기 위한 혁신적 방법론인 'AdvGame'을 제안했다. 기존의 보안 학습 방식이 이미 알려진 고정된 공격 패턴에 대응하기 위해 모델을 수동적으로 훈련시키는 한계가 있었다면, 이번 연구는 AI 안전성 확보 과정을 공격자와 방어자가 공존하는 비제로섬 게임(Non-zero-sum game)으로 재해석했다. 이에 따라 공격자 역할을 하는 모델과 이를 막아내는 방어자 모델이 실시간으로 상호작용하며 동시에 학습하는 구조를 갖추게 되었다. 공격자가 필터를 우회할 수 있는 고도화된 전략을 찾아낼 때마다 방어자는 이를 즉각적으로 차단하는 방법을 습득하며 인공지능 시스템 전반의 방어 역량을 지속적으로 끌어올리는 선순환 구조를 형성한다.
연구팀은 이러한 복잡한 모델 간의 상호작용을 정밀하게 제어하기 위해 온라인 강화학습 기법을 핵심적으로 사용했다. 특히 성능을 평가할 때 단순한 수치형 점수를 부여하는 방식에서 탈피하여, 시스템이 생성한 두 가지 결과물 중 어느 것이 더 안전하고 유용한지를 직접 비교하는 쌍체 보상(Pairwise reward) 시스템을 도입했다. 이러한 선호도 기반의 보상 체계는 인공지능이 실제 과업을 안전하게 완수하기보다 점수 체계의 맹점을 이용해 높은 점수만을 얻어내려는 '보상 해킹' 현상을 효과적으로 억제한다. 실제로 이 방식은 모델 훈련 과정에서 단순한 수치 평가보다 훨씬 견고하고 신뢰할 수 있는 지도 신호를 제공하는 것으로 확인되었다.
이러한 학습 과정을 거친 결과, 모델의 유용성과 안전성이라는 두 가지 핵심 가치 사이에서 최적의 균형점을 찾는 '파레토 프런티어(Pareto frontier)' 성능이 획기적으로 개선되는 성과를 거두었다. 방어자 모델은 외부의 적대적인 공격 시도에 대해 강력한 복원력을 갖추게 되었으며, 동시에 사용자의 요청에 정확하게 응답하는 유용성 측면에서도 뛰어난 성능을 유지하는 데 성공했다. 또한 함께 훈련된 공격자 모델은 그 자체로 다른 AI 시스템의 보안 취약점을 심층적으로 분석하고 테스트할 수 있는 범용 레드팀(Red-teaming) AI 에이전트로 진화했다. 이러한 고도화된 공격 에이전트는 향후 다양한 타깃 모델을 사전에 점검하고 보안 사고를 미연에 방지하는 보안 도구로 폭넓게 활용될 것으로 기대된다.
결과적으로 메타 AI의 이번 시도는 인공지능 안전성을 단순히 제약하는 수준을 넘어, 적대적 경쟁을 통해 시스템 전반의 지능과 보안 수준을 동시에 높일 수 있음을 입증했다는 점에서 큰 의의를 지닌다. 또한 이는 강화학습을 활용한 정렬 기술이 실제 서비스 환경에서 발생할 수 있는 예상치 못한 위험 요소를 선제적으로 차단하는 데 매우 효과적인 수단임을 시사한다. 특히 오픈 소스 생태계를 지향하는 메타의 행보를 고려할 때, 이러한 레드팀 기술의 공유는 전체 AI 산업의 안전 표준을 한 단계 격상시키는 계기가 될 전망이다.