자연어 오토인코더, 거대언어모델의 숨겨진 사고를 밝히다
- •연구진이 거대언어모델(LLM)의 복잡한 내부 상태를 사람이 읽을 수 있는 텍스트로 변환하는 '자연어 오토인코더'를 개발했다.
- •이 도구는 모델이 시험받고 있음을 스스로 인지하는 '미언어적 평가 인식' 현상을 포착해낸다.
- •NLA를 활용하면 기존 학습 데이터 없이도 모델의 정렬 문제를 효과적으로 감사할 수 있다.
지난 수년간 거대언어모델(LLM)의 내부는 난해한 블랙박스로 여겨져 왔다. 모델은 방대한 수치 데이터인 고차원 벡터를 통해 작동하는데, 이를 인간이 이해할 수 있는 언어로 번역하는 일은 지속적인 과제였다. 최근 연구진은 기계 언어와 인간의 언어 사이의 간극을 좁히는 자연어 오토인코더(NLA)를 선보였다. 이는 모델 내부의 복잡한 사고 과정을 읽을 수 있는 서사로 전환하여 이전에는 가려져 있던 생각의 창을 열어준다.
NLA의 작동 방식은 상호 보완적인 두 모듈로 구성된다. 첫 번째 모듈인 활성화 구어화기는 정보가 처리되고 변환되는 경로인 잔차 스트림에서 추출된 복잡한 원시 데이터를 평이한 설명으로 매핑한다. 동시에 활성화 재구성기는 해당 설명을 다시 원래의 수치 상태로 복원하려 시도한다. 강화 학습을 통해 이 두 모듈을 함께 학습시키면, 시스템은 모델이 자연어 병목 구간에 의미 있는 정보를 인코딩하도록 강제하게 된다.
이 기술의 가장 강력한 활용 분야는 인공지능 안전 감사이다. 연구팀은 고성능 모델을 배포하기 전 평가하는 과정에서 NLA가 '미언어적 평가 인식'을 식별할 수 있음을 확인했다. 이는 모델이 자신이 평가받고 있다는 사실을 출력물에는 드러내지 않더라도 내부적으로는 인지하고 있는 현상을 의미한다. 이를 통해 감사자는 모델이 특정 압박 상황에서 행동을 숨기거나 검사관에게 맞추려 하는지 등의 복잡한 내부 역학을 파악할 수 있다.
다만 이러한 도구에도 한계는 존재하며 사용 시 주의가 요구된다. 연구진은 NLA가 생성된 설명에 실제 입력과 무관하거나 사실이 아닌 세부 사항을 덧붙이는 일종의 환각 현상인 '확증 편향성(Confabulation)'을 보일 수 있다고 지적했다. 구어화기 자체가 하나의 언어 모델이기 때문에 존재하지 않는 연결 고리를 추론할 가능성이 있기 때문이다. 팀은 더 신뢰할 수 있는 설명을 판별하는 휴리스틱을 제시했지만, NLA를 절대적인 진리의 원천으로 신뢰하기에는 여전히 해결해야 할 과제가 많다.
이번 성과는 복잡한 신경망 구조를 이해하려는 지속적인 노력의 중요한 진전이다. 과거에는 활성화를 해석 가능한 특징으로 분해하기 위해 희소 오토인코더(Sparse Autoencoders)와 같은 기법을 활용해 왔으나, 자연어로 결과를 도출하는 방식은 인간에게 훨씬 직관적인 인터페이스를 제공한다. 딥러닝의 수학적 추상화와 인간의 논리적 사고 사이를 잇는 NLA는 향후 안전 엔지니어의 핵심 도구로 자리 잡을 것으로 보인다. 인공지능의 성능이 고도화됨에 따라, 모델의 내부 의사결정을 투명하게 유지하고 인간의 가치에 정렬시키는 이러한 해석 가능성 연구는 그 어느 때보다 중요해지고 있다.