SGLang, 디퓨전 언어 모델 LLaDA 2.0 전격 지원
- •SGLang 엔진이 디퓨전 언어 모델(dLLM)인 LLaDA 2.0을 지원하며 AI 모델 평가 및 훈련 환경을 대폭 강화했다.
- •LLaDA 2.0은 기존 자기회귀(AR) 모델보다 데이터 이해력이 뛰어나고 소규모 배치에서 더 빠른 추론 속도를 구현한다.
- •SGLang의 청크 프리필 메커니즘을 통해 핵심 구조 변경 없이도 디퓨전 모델의 효율성을 극대화하는 데 성공했다.
앤트그룹의 DeepXPU 팀과 SGLang 팀은 최근 협력을 공식화하고 SGLang 프레임워크 내에서 디퓨전 대규모 언어 모델(dLLM)을 전격 지원한다고 발표했다. 이번 파트너십의 핵심은 중국 인민대학교와 앤트그룹 연구진이 공동으로 개발한 차세대 모델인 LLaDA 2.0을 사용자들이 즉시 활용할 수 있도록 생태계를 구축한 것이다. GPT 시리즈로 대표되는 기존의 자기회귀(AR) 모델이 이전 단어를 기반으로 다음 단어를 순차적으로 예측하는 방식이라면, LLaDA는 이미지 생성 기술과 유사한 디퓨전 프로세스를 통해 텍스트를 반복적으로 다듬으며 완성해 나간다. 특히 이러한 혁신적인 접근법은 복잡한 데이터 구조에 대한 깊이 있는 이해를 가능하게 하며, 소규모 배치 환경에서 기존 모델을 압도하는 빠른 추론 속도를 구현해 냈다.
한편 LLaDA 2.0과 같이 거대한 규모의 모델을 확장하고 운영하는 과정에서는 기존의 표준 추론 엔진들이 해결하지 못하는 효율성 저하 문제가 꾸준히 제기되어 왔다. SGLang은 자사만의 독창적인 '청크 프리필(Chunked-Prefill)' 메커니즘을 선제적으로 도입함으로써 핵심 아키텍처를 대대적으로 수정하지 않고도 디퓨전 모델을 완벽하게 수용하는 데 성공했다. 이에 따라 dLLM은 SGLang이 보유한 검증된 최적화 기능들을 온전히 누릴 수 있게 되었으며, 개발자들은 필요에 따라 디퓨전 디코딩 알고리즘을 자유롭게 커스터마이징할 수 있는 폭넓은 유연성을 얻게 되었다. 또한 이러한 기술적 성취는 순차적 생성 방식의 한계를 뛰어넘어 비순차적 텍스트 생성을 연구하는 전 세계 AI 전문가들에게 새로운 가능성을 열어준 것으로 평가받는다.
실제로 공개된 성능 벤치마크 지표를 살펴보면 이번 기술 통합이 가져온 효율성 개선 효과는 매우 극명하게 나타난다. 구체적으로 LLaDA 2.0-flash-CAP (100B) 모델은 초당 무려 935개의 토큰을 처리하는 놀라운 성능을 기록했는데, 이는 gpt-oss-120B 모델의 처리 속도인 263토큰과 비교했을 때 약 3.5배 이상 빠른 수치이다. SGLang의 뛰어난 시스템 안정성과 더불어 강화 학습 생태계와의 긴밀한 호환성은 이처럼 거대한 모델을 안정적으로 구동하기 위한 최적의 플랫폼임을 입증했다. 결과적으로 이번 업데이트는 디퓨전 언어 모델의 실질적인 활용 범위를 대폭 확장할 뿐만 아니라, 보다 정교한 인공지능 모델을 개발하려는 글로벌 연구팀의 워크플로우를 획기적으로 개선할 전망이다.