1TB 초거대 모델, H200 GPU 단 한 장에 담다
LMSYS
2026년 1월 28일 (수)
- •SGLang 팀, 1TB 규모 모델을 위한 INT4 양자화 인식 훈련(QAT) 파이프라인 구현
- •새로운 압축 기술로 단일 H200 노드 배포 가능, 값비싼 노드 간 통신 병목 현상 해결
- •INT4 QAT, 기존 BF16 정밀도와 거의 차이 없는 성능 및 훈련 안정성 달성
SGLang RL 팀이 하드웨어 효율성의 한계를 뛰어넘는 성과를 냈다. 무려 1TB급에 달하는 초거대 모델을 단 한 장의 NVIDIA H200 VRAM에 올릴 수 있는 'INT4 양자화 인식 훈련' 파이프라인을 성공적으로 구축. 이 방식은 현대 AI의 막대한 메모리 요구량을 획기적으로 압축해 하드웨어 비용 부담을 덜어준다.
혁신의 핵심은 훈련 과정에서 적용된 '가짜 양자화(fake quantization)' 기술에 있다. 모델이 고정밀 가중치를 유지하면서도 연산 시에는 4비트 정수의 노이즈와 정밀도 손실을 미리 경험하도록 모의 실험하는 방식이다. 여기에 강화 학습을 결합해 모델이 저정밀도 제약 조건에서도 정확도와 일관성을 잃지 않고 스스로 적응하며 학습하도록 유도했다. 특히 훈련 단계의 모의 노이즈를 실제 추론 단계의 4비트 양자화와 정교하게 일치시켜 놀라운 수준의 성능 유지를 가능케 함으로써, 여러 GPU 간의 느린 데이터 전송 과정을 생략할 수 있게 되었으며, 초대형 모델 구동 효율은 사실상 두 배로 뛰었다.
광범위한 테스트 결과, 이 기법은 최고 정밀도로 훈련된 기존 모델과 대등한 추론 능력을 보여주었다. 이번에 공개된 오픈소스 레퍼런스는 대규모 컴퓨팅 클러스터 없이도 최첨단 모델을 훈련하고 배포할 수 있는 고성능·저비용의 실질적인 대안을 제시한다.