LG, 독자 기술로 완성한 한국형 AI 'K-EXAONE' 공개
- •LG AI Research가 2,360억 개의 매개변수를 가진 MoE 모델 K-EXAONE을 발표했으며, 오픈웨이트 모델 중 세계 7위를 기록했다.
- •독자적인 AGAPO 강화학습과 Multi-Token Prediction 기술을 통해 추론 속도를 1.5배 높이고 논리적 추론 능력을 극대화했다.
- •26만 토큰에 달하는 컨텍스트 길이와 고효율 처리를 위한 전용 SuperBPE 토크나이저를 탑재했다.
LG AI Research가 K-EXAONE을 통해 글로벌 '조 단위 매개변수' 경쟁에 본격적으로 뛰어들었다. 이는 고도의 LLM 시장에서 한국의 기술 자립을 실현하기 위해 설계된 소버린 AI 모델이다. 단순히 규모만 키운 것이 아니라 독자적인 기술력을 집약했다는 점에서 의미가 깊다. K-EXAONE의 기술적 핵심은 전문가 믹스(MoE) 구조에 있다. 전체 2,360억 개의 매개변수 중 상황에 필요한 10%의 매개변수만 선택적으로 활성화한다. 덕분에 방대한 지적 능력을 유지하면서도 실제 운영에 드는 연산 비용은 획기적으로 줄였다. 여기에 복잡한 단어 조합을 하나의 토큰으로 압축하는 'SuperBPE' 토크나이저를 적용해 데이터 읽기 및 처리 속도를 가속화했다. 특히 주목할 부분은 AGAPO라고 불리는 독자적인 강화학습 알고리즘이다. 정답만을 학습하는 기존 방식과 달리, AGAPO는 오답 경로에 '음의 보상'을 부여한다. AI가 논리적 추론 과정에서 '하지 말아야 할 것'을 스스로 학습하도록 설계한 것이다. 이러한 정교한 훈련 방식은 복잡한 논리 문제 해결 능력을 비약적으로 향상시켰다. 기술적 고도화는 수치로 증명됐다. K-EXAONE은 국내 리더보드 최상단을 차지함은 물론, 수학과 코딩 벤치마크에서 글로벌 유명 오픈웨이트 모델들을 앞서는 성과를 냈다. 책 수십 권 분량을 한 번에 처리할 수 있는 26만 토큰의 컨텍스트 길이를 확보했다. LG는 이를 바탕으로 AI가 직접 도구와 API를 사용해 문제를 해결하는 'Agentic AI' 시대를 선도할 계획이다.