구글 딥마인드, AI 학습 효율 높이는 새 아키텍처 공개
- •구글 딥마인드가 분산 환경에서 대규모 모델을 효율적으로 학습시키는 'Decoupled DiLoCo' 아키텍처를 도입했다.
- •이 시스템은 데이터 센터 간 네트워크 대역폭 부담을 대폭 낮추어 글로벌 인프라 활용을 최적화한다.
- •하드웨어 결함이 발생해도 학습이 중단되지 않는 자가 치유 기능을 갖춰 안정적인 모델 개발이 가능하다.
차세대 거대 AI 모델을 구축하는 과정은 이제 단순한 연산의 영역을 넘어 거대한 물류 작전과 흡사해졌다. 기존의 거대 언어 모델(LLM) 학습은 수천 개의 연산 장치를 정밀하게 동기화해야 하므로, 단 하나의 장비 결함만으로도 전체 프로세스가 멈출 위험이 컸다. 구글 딥마인드의 최신 연구인 'Decoupled DiLoCo'는 이러한 고정관념을 깨고, 글로벌 인프라 환경에서도 견고하게 작동하도록 설계된 새로운 분산형 아키텍처를 제안한다.
핵심은 학습 과정을 독립적으로 분리된 '연산 섬'으로 나누는 방식이다. 단일 클러스터에 긴밀하게 결합된 기존 구조에서 벗어나 보다 유연한 설계를 채택함으로써, 네트워크 일부분에 오류가 발생해도 전체 작업에 영향을 미치지 않도록 방지했다. 특히 데이터 센터 간 거리가 먼 상황에서 실시간 동기화를 유지하는 것은 기술적으로 어렵고 막대한 비용이 소요되는 작업인데, 이번 연구는 이를 극복하는 돌파구를 마련했다.
이번 혁신의 배경에는 비동기 데이터 흐름(Asynchronous Training)이 있다. 이 방식은 연산 장치들이 완벽하게 동기화되지 않아도 학습을 지속할 수 있게 해주어, 지역 간 초고속 저지연 네트워크에 대한 의존도를 크게 줄였다. 그 결과 연구진은 일반적인 네트워크 속도 환경에서도 120억 개의 매개변수를 가진 모델을 미국 전역의 4개 데이터 센터에 분산하여 학습하는 데 성공했다.
무엇보다 인상적인 점은 시스템의 자가 치유 능력이다. 연구진이 강도 높은 테스트 과정에서 의도적으로 하드웨어 오류를 발생시켜 학습 도중 시스템 일부를 강제 종료했음에도 불구하고, 아키텍처는 중단 없이 학습을 이어갔다. 또한 오프라인 상태였던 장비들이 복구되면 시스템에 즉시 통합되는 유연한 복원력까지 입증했다.
이번 성과는 향후 AI 개발의 지형을 바꿀 수 있는 전환점이 될 것으로 보인다. 학습 과정을 분리함으로써 기업들은 서로 다른 세대의 하드웨어를 하나의 작업에 통합하여 활용할 수 있게 되었고, 이는 곧 유휴 컴퓨팅 자원의 효율적 재활용으로 이어진다. 결과적으로 단일 거대 데이터 센터의 물리적 한계를 넘어 더욱 효율적이고 결함에 강한 AI 학습 환경을 구축할 수 있는 길이 열린 셈이다.