OpenAI, 고효율 GPT-5.4 mini 및 nano 모델 공개
- •OpenAI가 코딩과 서브에이전트 구현에 최적화된 고효율 모델인 GPT-5.4 mini와 nano를 출시했다.
- •GPT-5.4 mini는 GPT-5.4보다 두 배 빠른 속도를 유지하면서도 SWE-Bench Pro에서 54.4%의 성능을 기록했다.
- •새로운 nano 모델은 100만 토큰당 0.20달러의 저렴한 비용으로 텍스트 분류 및 데이터 추출 기능을 제공하며 경제성을 극대화했다.
OpenAI가 기존 플래그십 라인업을 확장하며 GPT-5.4 mini와 nano를 전격 공개했다. 이 두 모델은 높은 지능 수준을 유지하면서도 비용과 지연 시간을 획기적으로 줄인 경량화 모델이다. 특히 복잡한 추론은 기존 GPT-5.4가 담당하되, 소형 모델들은 대량의 기술적 작업을 처리하는 데 특화되었다. 그중 mini 모델은 효율성과 성능의 균형을 맞춘 것이 특징이며, 실제 소프트웨어 문제 해결 능력을 측정하는 SWE-Bench Pro 벤치마크에서 상위 모델에 버금가는 성과를 거두었다.
함께 출시된 GPT-5.4 nano는 생태계 내에서 비용 효율성의 새로운 기준을 제시한다. 이 모델은 텍스트 분류나 순위 지정과 같이 좁고 반복적인 작업에 최적화되어 설계되었다. 특히 대형 모델이 상위 수준의 계획을 세우면 소형 모델들이 구체적인 하위 작업을 병렬로 수행하는 '서브에이전트' 역할을 수행하기에 적합하다. 개발자는 이러한 반복적인 작업을 저렴하고 빠른 모델로 분산함으로써 시스템 전체의 성능을 유지하면서도 운영 비용을 대폭 절감할 수 있다.
사용자나 개발자 입장에서 '컴퓨터 사용' 역량이 강화된 점도 주목할 만하다. GPT-5.4 mini는 복잡한 사용자 인터페이스 스크린샷을 해석할 수 있어, 낮은 지연 시간으로 코드베이스 탐색이나 소프트웨어 디버깅을 수행한다. 실제로 이러한 성능 향상은 Codex나 ChatGPT와 같은 도구에서 더욱 민첩한 반응으로 이어지며, 현재 무료 사용자들을 위한 '생각하기' 기능을 지원하는 데 활용되고 있다. 결국 미래의 AI 활용 능력은 단순히 연산력의 크기가 아니라, 효율적이고 특화된 지능을 얼마나 전략적으로 배치하느냐에 달려 있음을 시사한다.