전문가 라우팅 최적화를 통한 AI 모델 속도 향상
- •투기적 디코딩은 Mixture-of-Experts 모델의 검증 단계에서 성능 병목을 유발한다.
- •비단조적 속도 향상 곡선은 특정 배치 크기에서 Mixture-of-Experts 모델의 최적 지점이 존재함을 보여준다.
- •Mixture-of-Experts 모델의 시간적 라우팅 패턴을 활용하면 검증 비용을 크게 절감할 수 있다.
인공지능 모델이 텍스트를 생성하는 과정은 흔히 만년필이 종이 위를 부드럽게 지나가는 모습에 비유되곤 한다. 하지만 실제로는 현재의 챗봇처럼 한 번에 하나의 토큰(단어 조각)만을 순차적으로 생성하는 방식이다. 이는 모델이 단어를 생성할 때마다 구조 전체를 다시 연산해야 하므로 본질적으로 속도가 느릴 수밖에 없다. 이를 해결하기 위해 엔지니어들은 투기적 디코딩이라는 영리한 지름길을 사용한다. 작은 모델이 미래의 단어를 미리 예측하면, 더 크고 권위 있는 모델이 그 예측들을 한꺼번에 확인하여 성능과 속도를 동시에 확보하는 방식이다.
그러나 Mixture-of-Experts 모델의 구조는 이러한 효율성 전략을 복잡하게 만든다. 모든 정보를 처리할 때 모델 전체의 연산 능력을 사용하는 밀집 모델과 달리, Mixture-of-Experts 모델은 정보별로 필요한 특정 전문가 네트워크만을 선택적으로 활성화한다. 운영 효율은 높지만 투기적 디코딩을 적용하면 예측 토큰과 검증 토큰이 서로 다른 전문가를 요구하는 경우가 발생한다. 그 결과 예상보다 훨씬 많은 데이터를 메모리에서 불러오게 되며, 투기적 디코딩이 제공하려 했던 속도 향상 효과가 상쇄될 위험이 있다.
Cohere(엔터프라이즈 AI 플랫폼) 연구팀의 최근 분석은 이러한 트레이드오프 관계를 흥미롭게 조명한다. 연구진은 Mixture-of-Experts 모델이 단순하게 선형적으로 빨라지거나 느려지는 것이 아니라, 비단조적인 속도 향상 곡선을 보인다는 점을 발견했다. 즉, 시스템이 동시에 처리하는 요청 수인 배치 크기에 따라 전문가 데이터를 불러오는 비용과 병렬 검증의 이득이 균형을 이루는 분명한 최적 지점이 존재한다. 이는 데이터 전송 대역폭 제한과 칩의 연산 처리 속도 제한 사이에서 균형을 맞추는 정교한 산술 강도 조절의 문제이다.
가장 직관에 반하는 발견은 전문가가 선택되는 방식에서의 시간적 상관관계다. 텍스트를 처리할 때 연속된 토큰들은 종종 동일한 전문가를 필요로 하는데, 이는 마치 사람이 특정 작업을 마칠 때까지 같은 도구를 계속 사용하는 것과 유사하다. 모델이 자연스럽게 이러한 전문가 선택을 그룹화하기 때문에 투기적 디코딩의 비용은 상당히 낮아진다. 예측과 검증 단계에서 동일한 전문가를 사용할 확률이 높으므로, 모델은 매번 새로운 전문가를 불러올 필요가 없으며 특정 환경에서는 검증 과정을 거의 공짜로 수행할 수 있게 된다.
이번 연구 결과는 차세대 AI 시스템 설계에 중요한 시사점을 던진다. 개발자들은 모델의 희소성과 투기적 디코딩의 요구 사항을 함께 최적화함으로써 특정 작업 부하에 맞춰 모델을 효과적으로 조정할 수 있다. 대규모 트래픽 환경에서는 토큰당 전문가 수를 줄여 대역폭 효율을 극대화하고, 반대로 저트래픽 환경에서는 전문가 공유를 통해 효율을 높이는 방식이다. 이번 연구는 이론적 연구와 실질적인 엔지니어링 현실 사이의 간극을 메우며, 누구나 더 빠른 AI를 경험할 수 있는 토대를 마련하고 있다.