AI 토큰화 방식 변화가 비용에 미치는 영향
- •최신 모델의 토큰화로 인해 프롬프트 규모에 따라 네이티브 토큰 수가 32~45% 증가했다.
- •대부분의 작업에서 실제 사용 비용이 12~27% 상승했으나, 짧은 프롬프트에서는 효율성이 개선되기도 했다.
- •프롬프트 캐싱 기술은 추가적인 토큰화 비용을 흡수하며 중요한 완충재 역할을 수행한다.
정교한 AI 모델을 사용할 때 우리는 그 이면에서 일어나는 복잡한 연산 과정을 직접 보지 못한다. 이때 가장 중요하면서도 눈에 보이지 않는 구성 요소가 바로 '토큰화'이다. 토큰화란 인간의 언어를 AI가 처리할 수 있는 숫자 데이터로 변환하는 일종의 번역 과정이다. 문장을 단어나 문자의 단위인 '토큰'으로 잘게 쪼개는 작업인데, 기업이 모델의 토큰화 방식을 업데이트하면 사용자의 업무 흐름과 비용 체계에 큰 변화가 생길 수 있다.
최근 주요 모델 업데이트를 분석한 결과, 기존의 번역 논리가 바뀌었을 때 어떤 현상이 나타나는지 명확히 확인되었다. 핵심은 새로운 모델이 동일한 텍스트에 대해 32%에서 45% 더 많은 토큰을 생성한다는 점이다. 즉, AI가 프롬프트를 이전보다 더 긴 '문서'로 읽어 들인다는 의미이며, 이는 일반적으로 사용자의 비용 부담 증가로 이어진다. 토큰당 단가는 동일할지라도, 이러한 '토큰화 인플레이션'은 많은 사용자에게 숨겨진 가격 인상과 다를 바 없다.
연구진은 구버전 모델에서 신버전 모델로 전환한 사용자 집단을 분석했다. 흥미롭게도 결과는 일률적이지 않았다. 2,000 토큰 미만의 짧은 프롬프트에서는 오히려 모델의 효율성이 높아졌다. AI가 훨씬 짧은 응답을 생성함으로써 입력 토큰의 추가 비용을 상쇄했기 때문이다. 따라서 간단하고 일회성인 질문을 처리할 때는 오히려 비용을 절감하는 경우도 발생한다.
하지만 작업량이 늘어나면 상황은 완전히 달라진다. 10,000 토큰에서 128,000 토큰 사이의 프롬프트를 다룰 때는 비용이 12%에서 27%까지 상승했다. 이러한 상황에서 공학적 개념인 '프롬프트 캐싱'이 해결사로 등장한다. 프롬프트 캐싱은 자주 변하지 않는 요청의 일부분을 저장해두는 기술로, 시스템이 매번 이를 재처리하거나 청구하지 않도록 돕는다.
데이터에 따르면 가장 긴 입력 데이터의 경우, 새로운 토큰화 방식으로 인해 발생한 추가 토큰의 93%가 캐시를 통해 해결되었다. 결과적으로 캐시는 충격 흡수 장치처럼 작용하여 비용 상승을 완화한다. 이는 AI 기반 서비스를 구축하는 모든 이에게 시사하는 바가 크다. 데이터와 토큰화 방식, 그리고 캐싱 전략 간의 상호작용을 이해하는 것은 이제 선택이 아닌 현대 기술 예산을 관리하기 위한 필수 요건이 되었다.