Sakana AI, 하이퍼네트워크로 LLM 즉각 맞춤화 기술 공개
- •Sakana AI가 하이퍼네트워크를 활용해 모델을 실시간으로 최적화하는 Doc-to-LoRA 기술을 발표했다.
- •새로운 방법론을 통해 문서와 작업 설명을 모델에 내재화하는 과정에서 1초 미만의 지연 시간을 달성했다.
- •Doc-to-LoRA는 기본 모델 한계보다 5배 긴 컨텍스트에서도 완벽에 가까운 정확도를 유지하는 데 성공했다.
Sakana AI가 Doc-to-LoRA와 Text-to-LoRA를 통해 인공지능 모델 커스터마이징의 획기적인 전환점을 마련했다. 이 두 기술은 모델이 새로운 정보나 작업을 즉시 학습할 수 있도록 돕는다. 기존에는 모델의 지식을 업데이트하려면 '미세 조정'이라 불리는 비용이 많이 드는 재학습 과정을 거치거나, 메모리를 대량으로 소모하는 거대한 프롬프트를 사용해야만 했다. Sakana AI는 이러한 한계를 극복하기 위해 거대 모델에 필요한 작고 효율적인 업데이트를 실시간으로 생성하는 보조 AI 모델인 하이퍼네트워크를 도입했다.
'비용 상각' 방식이라 불리는 이 접근법은 하이퍼네트워크 학습 단계에서 복잡한 연산을 미리 처리해 두는 것이 핵심이다. 일단 학습을 마치면 하이퍼네트워크는 단 한 번의 저렴한 연산 과정만으로 특정 작업이나 문서에 최적화된 가중치를 생성해 낸다. 그 결과 과거에는 복잡한 엔지니어링 파이프라인이 필요했던 업데이트 과정을 1초 미만의 지연 시간 내에 처리할 수 있게 되었다. 특히 모델이 긴 문서를 단순한 임시 맥락으로 읽는 수준을 넘어, 마치 원래 학습 데이터였던 것처럼 내재화하는 것이 가능해졌다.
실험 결과는 특히 긴 컨텍스트 처리 능력에서 놀라운 성과를 보여주었다. 방대한 데이터 속에서 특정 사실을 찾아내는 '바늘 찾기' 테스트에서 Doc-to-LoRA는 기본 모델의 처리 한계보다 5배나 긴 시퀀스에서도 완벽에 가까운 정확도를 유지했다. 또한 이 시스템은 시각 언어 모델의 시각 정보를 텍스트 전용 가중치로 변환하는 교차 모달 유연성까지 갖추고 있다. 덕분에 일반적인 텍스트 모델도 시각적 개념을 내부 논리에 직접 흡수함으로써 이미지를 정확히 분류할 수 있게 되었다.