HiSparse, 대규모 컨텍스트 LLM 처리 성능 3배 개선
- •HiSparse는 계층적 메모리 관리를 통해 대규모 컨텍스트 LLM의 GPU 메모리 병목 현상을 해결한다.
- •이 시스템은 표준 희소 어텐션(Sparse Attention) 대비 최대 3배 높은 처리량을 달성했다.
- •비활성 데이터를 보조 저장소로 이전함으로써 방대한 요청 배치를 동시에 처리할 수 있다.
LLM이 방대한 양의 텍스트를 처리하는 이른바 '긴 컨텍스트(long context)' 환경에서는 심각한 기술적 장벽인 '메모리 벽(memory wall)' 문제가 발생한다. 모델이 처리하는 정보량이 늘어날수록, 기억 장치 역할을 하는 KV 캐시의 크기가 급격히 커지며 GPU 메모리를 모두 소진하기 때문이다. 이로 인해 서버가 감당할 수 있는 동시 요청 수가 제한되어 성능이 저하되는 현상이 나타난다. HiSparse 연구팀은 이를 해결하기 위해 메모리를 도서관 시스템처럼 관리하여, 사용하지 않는 데이터를 빠른 '핫' 메모리에서 보조 저장소로 옮기는 영리한 방식을 도입했다.
HiSparse의 핵심은 계층적 메모리 구조에 있다. 전체 메모리 캐시를 고가의 고속 GPU 하드웨어에 모두 유지하는 대신, 당장 필요하지 않은 데이터를 지능적으로 호스트 메모리로 옮긴다. 이 덕분에 GPU는 가장 중요하고 자주 호출되는 캐시 데이터에만 집중할 수 있다. 결과적으로 GPU의 작업 공간을 차지하는 데이터가 줄어들어, 성능 저하의 주범인 메모리 압박이 획기적으로 개선된다.
이 방식이 특히 효과적인 이유는 특수 제작된 스왑인 커널 덕분이다. 모델이 호스트 저장소로 옮겨진 데이터가 필요할 때, 이 커널은 누락된 정보를 신속하게 파악하여 고속 버퍼로 다시 가져온다. 연구팀은 가장 최근에 사용된 데이터를 우선 유지하는 'LRU(Least Recently Used)' 정책을 적용해 데이터 교체 효율을 극대화했다. 이러한 로직은 데이터 이동에 드는 시간을 최소화하여 시스템의 처리 속도를 안정적으로 유지한다.
실제 높은 동시성을 요구하는 환경에서 그 효과는 더욱 두드러진다. 대규모 워크로드를 관리하는 개발자나 연구자들에게 HiSparse는 거의 선형적인 처리량 확장을 제공한다. 이는 컨텍스트 길이가 길어져도 사용자가 늘어난 만큼 시스템이 효율적으로 대응할 수 있음을 의미한다. 실제로 GLM-5.1-FP8 모델을 사용한 벤치마크에서는 까다로운 조건 속에서도 최대 5배의 처리량 개선을 확인했다.
AI 시스템이 책 전체나 거대한 코드베이스를 실시간으로 해석해야 하는 시대가 오고 있다. 이러한 흐름 속에서 HiSparse와 같은 혁신은 인프라의 효율성과 확장성을 확보하는 데 핵심적인 역할을 할 것으로 기대된다. 앞으로 더욱 복잡한 AI 모델을 경제적이고 안정적으로 운영하기 위한 필수 기술이 될 전망이다.