WideSeek-R1, 소형 모델의 '협업'으로 거대 AI 압도
HuggingFace
2026년 2월 6일 (금)
- •WideSeek-R1은 다중 에이전트 오케스트레이션을 통한 '폭 확장(width scaling)' 방식으로 높은 지능적 효율성을 달성했다.
- •40억 개의 파라미터를 가진 소형 모델이 정보 탐색 벤치마크에서 6710억 개의 DeepSeek-R1과 대등한 성능을 기록했다.
- •다중 에이전트 강화 학습을 통해 리드 에이전트와 서브에이전트 간의 유기적인 협업 시스템을 최적화했다.
현재 AI 연구의 최전선은 단일 거대 모델의 지능을 극대화하여 복잡한 추론을 해결하려는 '깊이 확장(depth scaling)'에 몰두하고 있다. 하지만 방대한 정보를 샅샅이 뒤져야 하는 작업에서는 이러한 단일 거대 모델들이 오히려 조직적인 효율성 측면에서 한계를 드러내곤 한다. 이에 따라 WideSeek-R1은 하나의 거대한 뇌에 의존하는 대신 소형 AI 에이전트들이 팀을 이뤄 업무를 분담하는 '폭 확장(width scaling)'이라는 혁신적인 대안을 제시했다.
이 시스템의 핵심은 다중 에이전트 강화 학습으로 단련된 '리드-서브에이전트' 구조다. 중앙의 리드 에이전트가 관리자로서 질문을 세분화해 여러 서브에이전트에게 할당하면, 이들이 병렬적으로 정보를 처리하며 시너지를 낸다. 실제로 단 40억 개의 파라미터를 갖춘 WideSeek-R1은 WideSearch 벤치마크에서 40%의 F1 점수를 기록하며, 6710억 개의 파라미터를 가진 거물급 모델 DeepSeek-R1과 대등한 성과를 거두었다.
특히 주목할 점은 이 시스템이 지닌 탁월한 확장성이다. 별도의 추가 학습 없이도 서브에이전트의 수만 늘리면 성능이 비례해서 향상되기 때문이다. 이러한 변화는 개별 모델의 체급보다 집단적인 '조직 역량'이 중시되는 새로운 AI 패러다임을 시사한다. 결과적으로 소형 모델 군단이 거대 모델을 앞지르는, 한층 민첩하고 자원 효율적인 정보 탐색 시스템의 시대가 머지않았음을 보여준다.