재귀적 다중 에이전트 협업으로 AI 지능을 확장하다
- •RecursiveMAS 프레임워크가 반복적인 latent-space 연산을 통해 AI 에이전트의 추론 효율성을 극대화한다.
- •표준 텍스트 기반 협업 대비 정확도는 8.3% 향상되고, 토큰 사용량은 최대 75.6%까지 절감한다.
- •새로운 아키텍처는 기존 방식보다 1.2배에서 2.4배 빠른 처리 속도를 보여준다.
인공지능 모델의 성능을 향상시키기 위해 모델의 규모를 무작정 키우는 방식 대신, 효율성을 극대화하려는 연구가 활발히 진행되고 있다. 최근 스탠퍼드 대학교(Stanford University) 연구진이 발표한 '재귀적 다중 에이전트 시스템(RecursiveMAS)'은 이러한 흐름을 잘 보여주는 혁신적인 사례다. 이 프레임워크는 단순히 모델 하나에 의존하거나 텍스트를 주고받는 정적인 협업 모델에서 벗어나, 에이전트 간의 소통을 연속적인 루프 형태의 계산 과정으로 정의한다.
학생들이 프로젝트를 위해 협업할 때 의견을 주고받는 과정을 떠올려보자. 기존의 AI 에이전트 시스템은 긴 이메일을 주고받듯 텍스트를 교환하며 답변을 정교화했다. 반면 RecursiveMAS는 모델이 아이디어를 실제 언어로 출력하기 전 내부에서 처리하는 수학적 표현인 latent-space를 활용해 에이전트 간 직접적인 소통을 가능하게 한다. 이러한 재귀적 구조를 통해 시스템은 내부 추론을 반복적으로 정제하며, 불필요한 텍스트 출력을 줄이고 정확도를 대폭 끌어올린다.
이 방법론의 성과는 매우 인상적이다. 고급 수학과 과학 문제부터 복잡한 코드 생성에 이르기까지 다양한 분야에서 테스트한 결과, RecursiveMAS는 기존 다중 에이전트 환경보다 일관되게 뛰어난 성능을 보였다. 특히 평균 정확도를 8% 이상 개선하면서도 토큰 사용량을 75%까지 줄여, 시스템을 훨씬 빠르고 경제적으로 운영할 수 있게 되었다.
이번 연구의 핵심적인 가치는 Gradient-based credit assignment 문제에 대한 해법을 제시했다는 점이다. 이는 시스템 내 어떤 요소가 최종 결과에 기여했는지를 파악하는 과정인데, 연구진은 '내부-외부 루프' 학습 알고리즘을 도입해 이 문제를 해결했다. 루프가 깊어질수록 학습 신호가 안정적으로 유지되도록 설계했기에, 복잡도가 높아져도 모델이 혼란에 빠지지 않고 정교한 추론을 이어갈 수 있다.
이번 성과는 '모델이 클수록 성능도 좋다'는 통념에서 벗어나 '더 나은 구조가 효율성을 만든다'는 방향으로 AI 발전의 패러다임이 이동하고 있음을 시사한다. 연구진은 코드와 데이터를 공개하며, 향후 AI 에이전트 생태계가 느린 대화형 상호작용에서 벗어나 신속하고 정교한 재귀적 추론 기반의 협업 환경으로 진화할 것임을 예고했다.