초거대 모델을 즉시 업데이트하는 새로운 P2P 기술
- •RDMA 기반의 새로운 P2P 방식이 1조 파라미터 모델의 가중치 전송 시간을 7배 단축한다.
- •기존의 NCCL 브로드캐스트를 대체하여 대규모 분산 학습 클러스터의 병목 현상을 해결한다.
- •소스 측 CPU 엔진 복제본을 활용해 가중치 동기화 과정에서 메모리 효율성과 속도를 최적화한다.
인공지능 모델이 1조 파라미터 이상으로 급격히 거대해짐에 따라 데이터 관리와 관련된 물류적 난관이 커지고 있다. 분산 학습 환경에서 가장 큰 병목은 훈련된 모델 파라미터를 여러 추론 엔진에 동기화하는 가중치 전송 단계에서 발생한다. 기존 방식은 데이터 통신 라이브러리가 경직된 동기화 방식으로 작동하기 때문에, 클러스터 내의 특정 구성 요소가 느려지면 전체 네트워크가 멈추는 리소스 낭비가 잦았다.
이를 해결하기 위해 연구진은 RDMA를 활용한 새로운 P2P 가중치 업데이트 메커니즘을 도입했다. 이 설계는 중앙 집중식 브로드캐스트에서 벗어나 엔드포인트 간 독립적이고 동시적인 통신을 가능하게 한다. 특히 CPU와 커널 네트워킹 스택을 거치지 않는 제로 카피 데이터 전송을 통해 네트워크 지연 시간을 획기적으로 줄이고 대규모 배포 시 발생하는 직렬화 문제를 방지한다.
이 기술은 소스 측 CPU 메모리에 엔진 복제본을 할당하는 전략적 절충안을 취한다. 비록 추가 메모리가 소모되지만, 업데이트 시 가중치를 버킷 단위로 나누어 모든 학습 노드가 특정 파편을 타겟으로 직접 전송하게 함으로써 동기화 부담을 크게 덜어낸다. 그 결과, 1조 파라미터 모델의 가중치 전송 속도가 기존 대비 7배 빨라져 약 1분 걸리던 대기 시간이 7초대로 줄어들었다.
이러한 P2P 방식은 최근 AI 개발에서 주목받는 MoE 모델에 특히 효과적이다. RDMA를 통한 효율적 전송으로 중복 데이터 발생을 최소화하고, 라운드 로빈 방식을 통해 추론 노드 간 부하 분산을 구현했다. 결과적으로 기존 오픈소스 표준을 유지하면서도 대규모 분산 워크로드를 처리할 수 있는 확장 가능한 프레임워크가 완성된 셈이다.
이번 연구는 모델의 크기와 복잡도가 증가함에 따라 인프라 최적화가 필수적인 요소임을 시사한다. 기존 통신 프로토콜의 한계를 극복하기 위해 네트워크 구조 자체가 텐서 전송에 특화된 하드웨어 가속형 비동기 통신으로 나아가는 과정은 앞으로의 AI 운영 효율성을 결정짓는 핵심 지표가 될 것이다.