6G 에지 컴퓨팅과 LLM 에이전트의 만남, CORE 프레임워크
arXiv
2026년 1월 31일 (토)
- •CORE 프레임워크는 6G 모바일 기기와 계층적 에지 서버 전반에서 대규모 언어 모델(LLM) 에이전트의 협업을 조율한다.
- •새로운 '역할 친화도 스케줄링' 알고리즘을 통해 특정 AI 기능 역할을 분산된 컴퓨팅 자원과 최적으로 매칭한다.
- •실제 에지 컴퓨팅 플랫폼 평가에서 시스템 효율성과 작업 완료율이 크게 향상되는 성과를 거두었다.
6G 시대가 열리며 언제 어디서나 인공지능을 사용하는 '유비쿼터스 지능'에 대한 기대가 커지고 있다. 하지만 대규모 언어 모델(LLM)의 막대한 연산량은 네트워크 말단의 제한된 자원과 충돌하는 경우가 많았다. 이를 해결하기 위해 연구진은 모바일 기기와 서버를 계층적으로 연결해 AI 에이전트 팀을 관리하는 'CORE' 프레임워크를 선보였다.
CORE는 단일 기기에 과부하를 주는 대신, 작업을 세분화하여 각 모델에 최적의 역할을 맡김으로써 전체 시스템이 유기적으로 협력하도록 돕는다. 시스템의 매끄러운 운영을 위해 실시간 환경 인지, 에이전트 역할의 동적 조율, 그리고 추론 속도를 가속화하는 파이프라인 병렬화 기술이 뒷받침된다.
특히 '역할 친화도 스케줄링' 알고리즘은 하드웨어 성능에 맞춰 AI 역할을 지능적으로 배치한다. 덕분에 근처에 고성능 에지 서버가 있음에도 저사양 기기가 복잡한 추론을 도맡아 발생하는 병목 현상을 효과적으로 차단한다.
실제 6G 응용 시나리오에서 CORE 프레임워크는 시스템 효율과 작업 성공률 모두에서 유의미한 진전을 증명했다. 연구팀은 단순 시뮬레이션을 넘어 실제 에지 컴퓨팅 플랫폼에 아키텍처를 직접 배포해, 변화무쌍한 운영 환경에서도 분산형 AI 에이전트가 안정적으로 작동함을 확인했다.
이처럼 협업 중심의 탈중앙화 지능 기술은 고급 AI 기능을 진정한 모바일 환경으로 이끄는 결정적인 계기가 될 것으로 보인다.