Sakana AI, 실시간 대화형 AI 'KAME' 공개
- •KAME 아키텍처는 실시간 대화형 AI에서 '생각하며 말하기'를 가능하게 한다.
- •빠른 프론트엔드 모델과 비동기식으로 교체 가능한 백엔드 LLM을 결합한 이중 스트림 구조이다.
- •시스템은 높은 수준의 추론 능력을 유지하면서 지연 시간을 크게 단축한다.
사람 간의 대화는 생각을 완벽히 정리한 뒤에 이루어지지 않는다. 대화를 시작하면서 논리와 문장의 구조가 문장 중간에 다듬어지는 과정이 자연스럽게 발생하는데, 기존 AI 모델들은 이러한 유연한 대화 흐름을 모사하는 데 어려움을 겪어왔다. 기존의 고품질 음성 AI는 빠른 응답을 위해 얕은 답변을 내놓거나, 복잡한 사고를 위해 긴 처리 시간을 소요하며 로봇처럼 어색한 경험을 제공하는 한계에 갇혀 있었다.
Sakana AI가 공개한 KAME는 속도와 지능 사이의 간극을 메우기 위해 설계된 '탠덤 아키텍처' 솔루션이다. KAME는 말하는 행위와 생각하는 행위를 분리한다. 경량화된 고속 Speech-to-Speech 모델이 즉각적인 대화 흐름을 처리하여 사용자가 말을 끝내자마자 AI가 응답을 시작하도록 돕는다. 이 방식은 현재 대화형 에이전트의 고질적 문제인 '생각하는 시간'으로 인한 지연을 효과적으로 제거한다.
프론트엔드 모델이 대화를 주도하는 동안, 백엔드에서는 강력한 Large Language Model이 비동기적으로 작동한다. 이 엔진은 복잡한 추론 작업을 수행하며 정교한 응답 후보를 생성한다. 이렇게 생성된 결과는 실시간으로 대화에 삽입되어 프론트엔드 모델을 인도하는 가이드 역할을 한다. 마치 카리스마 넘치는 연설자에게 지적인 조언자가 귀엣말로 해답을 건네는 것과 같은 구조이다.
KAME 아키텍처의 가장 큰 강점은 모듈화에 있다. 개발자는 대화의 목적에 따라 Claude Opus, GPT-4.1, Gemini 2.5 Flash 등 원하는 LLM을 백엔드에 교체하여 삽입할 수 있다. 인문학적 토론이 필요할 때는 창의적인 모델을 선택하고, 기술적 문제 해결이 필요할 때는 논리 중심의 모델을 활용하는 식이다. 이는 프론트엔드 설정을 변경하지 않고도 AI의 성격을 유연하게 변화시킬 수 있는 독보적인 확장성을 제공한다.
이러한 '생각한 후 말하기'에서 '생각하며 말하기'로의 패러다임 전환은 AI가 단순한 도구를 넘어 진정한 협력자로 나아가는 중요한 진전이다. Sakana AI는 추론과 음성 생성 과정을 분리함으로써, 대화의 속도감을 유지하면서도 깊이 있는 가치를 제공하는 에이전트 설계의 청사진을 제시했다. 기술의 발전 속도가 인간의 인지 속도와 나란히 가기 시작했다는 점에서 이번 혁신은 주목할 만하다.