GPT-5 능가한 DiffThinker, 시각적 AI 추론의 혁신
- •텍스트 중심의 기존 멀티모달 모델 한계를 극복하고 시각적 추론을 최우선으로 구현했다.
- •시각 과제 수행 능력에서 GPT-5와 제미나이-3-플래시 등 주요 모델의 성능을 앞질렀다.
- •이미지 대 이미지 변환 방식을 통해 논리적 일관성과 공간적 정확도를 획기적으로 높였다.
최근 멀티모달 거대언어모델(MLLM)이 비약적인 발전을 거듭하고 있으나, 복잡한 시각적 과제에서는 여전히 텍스트 처리 의존도가 높다는 고질적인 한계를 보여왔다. 이러한 텍스트 편향성은 정밀한 공간 인식이나 깊이 있는 논리적 분석이 필수적인 상황에서 모델의 성능을 저하시키는 주요 원인으로 작용한다. 이에 따라 연구진은 추론의 패러다임을 근본적으로 바꾸는 '생성형 멀티모달 추론' 기술인 DiffThinker 프레임워크를 전격 공개했다. 이 시스템은 추론 과정을 직접적인 이미지 대 이미지 변환 프로세스로 재설계하여, 시각 중심 작업 수행 시 논리적 일관성과 공간적 정확도를 기존 방식 대비 획기적으로 향상시키는 데 성공했다.
DiffThinker 프레임워크는 효율성, 제어 가능성, 병렬 처리 능력, 그리고 시스템 간 협업 능력이라는 네 가지 핵심 기술 기둥을 기반으로 차별화된 성능을 제공한다. 실제로 실시된 엄격한 벤치마크 테스트에서 DiffThinker는 현존 최고의 모델로 평가받는 GPT-5와 제미나이-3-플래시 등 주요 상용 모델을 비롯해 특정 용도에 최적화된 Qwen3-VL-32B와 같은 모델들까지 모두 앞질렀다. 특히 순차적 계획 수립이나 복합적인 조합 최적화, 정밀한 공간 구성 등 난도가 높은 영역에서 독보적인 우수성을 증명했다. 또한 기존 모델들이 겪던 텍스트 중심의 병목 현상을 효과적으로 우회하여, 방대한 데이터셋 내에서도 최상의 정밀도와 추론 품질을 일관되게 유지하는 능력을 보여주었다.
이번 연구 성과는 인공지능 모델이 다양한 데이터 모달리티를 동시에 해석하고 논리적으로 추론하는 방식에 있어 중대한 전환점을 마련한 것으로 평가받는다. 시각 정보와 텍스트 정보를 하나의 유기적인 생성 워크플로우로 통합함으로써, 실제 산업 현장에 적용 가능한 AI 응용 분야의 새로운 가능성을 열었기 때문이다. 한편 전문가들은 이러한 혁신적 접근법이 향후 자율주행 시스템의 판단 능력 고도화, 지능형 로보틱스 제어, 그리고 고차원적인 의료 영상 분석 분야에서 파괴적인 혁신을 불러일으킬 것으로 내다보고 있다. 결국 DiffThinker는 현재 인공지능 아키텍처가 가진 구조적 한계를 돌파하고 인간의 시각적 인지 능력에 한 걸음 더 다가가는 핵심적인 이정표가 될 전망이다.