LLM 확장: 백엔드 마이그레이션과 정밀도 유지의 기술
- •vLLM V1 마이그레이션은 학습 안정성을 보존하기 위해 엄격한 백엔드 패리티(동일성)를 요구했다.
- •엔지니어들은 복잡한 강화 학습 목표를 조정하기 전에 추론 불일치 문제를 해결하는 것을 우선시했다.
- •수치 정밀도와 런타임 구성은 학습의 충실도를 유지하는 데 결정적인 역할을 했다.
정교한 인공지능 시스템을 구축할 때, 추론 엔진이라 불리는 핵심 소프트웨어 인프라를 업데이트하는 것은 결코 단순한 작업이 아니다. 최근 vLLM V0에서 V1으로의 전환 과정은 MLOps의 근본적인 진실을 보여준다. 모델이 학습 중에 보여주는 성능은 모델이 어떻게 응답을 생성하느냐라는 메커니즘과 밀접하게 연결되어 있기 때문이다.
엔진을 마이그레이션할 때 팀은 종종 '학습-추론 불일치' 현상을 마주한다. 이는 시스템이 변경되면서 데이터에 미세한 변화가 발생하고, 결과적으로 기존 학습 알고리즘에 혼란을 주는 상황을 의미한다. 특히 강화 학습을 통해 거대언어모델을 훈련할 때, 시스템은 모델의 특정 출력을 바탕으로 동작을 조정한다.
따라서 엔진이 미세하게라도 변경되면 출력값이 달라질 수 있으며, 이는 모델의 학습 궤적을 예상과는 전혀 다른 방향으로 이끌게 된다. 마이그레이션을 담당한 엔지니어들은 보상 지표나 엔트로피 지표가 어긋나는 난관에 봉착했다. 처음에는 학습 목표를 수정해 이를 보완하려 했으나, 이는 근본적인 문제를 가리는 임시방편에 불과했다.
결국 이들은 '정확성 우선' 방법론을 채택했다. 추론 백엔드를 독립 변수로 설정하고, 로그 확률 계산부터 접두사 캐싱 처리 방식까지 모든 출력 변화를 체계적으로 검사했다. 그 결과, 모델 마지막 계층에서 사용되는 수치 정밀도와 같은 사소해 보이는 세부 사항이 학습 과정 전체에 거대한 영향을 미친다는 사실을 확인했다.
가장 큰 기술적 난관은 최종 토큰 생성 과정에서의 수치 정밀도 제어였다. 계산 과정을 고정밀 부동소수점 표준인 FP32로 통일함으로써, 팀은 기존 참조 모델과 동일한 성능 수준을 확보할 수 있었다. 이러한 면밀한 접근 방식은 거대언어모델이 복잡해질수록 모델 가중치만큼이나 소프트웨어 스택의 신뢰성이 중요하다는 점을 다시 한번 일깨워준다.