AI 연구의 사실성과 과정을 평가하는 MiroEval 등장
- •MiroEval은 세 가지 핵심 차원을 바탕으로 심층 연구용 에이전트를 벤치마킹하기 위해 100개의 실사용자 과제를 도입했다.
- •13개 모델을 분석한 결과, 연구 과정의 품질이 최종 보고서 정확도를 0.88의 상관계수로 예측하는 강력한 지표임이 밝혀졌다.
- •주요 AI 시스템들은 난이도 높은 멀티모달 AI 과제 수행 시 3~10점의 유의미한 성능 저하를 겪는 것으로 나타났다.
다음 세대의 심층 연구용 에이전트를 제대로 평가하기 위해서는 단순히 최종 결과물에만 집중하는 정적인 평가 방식을 넘어서야 한다. 기존의 벤치마크는 AI가 결론에 도달하기까지의 세밀한 과정을 놓치고 조사 여정보다는 결과물에만 치중하는 경향이 있었다. MiroEval은 이러한 한계를 극복하기 위해 연구 프로세스를 감사하고 능동적 추론을 통해 사실관계를 검증하며, 실시간 업데이트 파이프라인으로 최신 지식에 적응하는 새로운 프레임워크를 제안한다.
이 프레임워크는 차트나 도표 같은 복잡한 시각적 요소를 해석해야 하는 30개의 과제를 포함해 총 100개의 다양한 과제로 에이전트를 테스트한다. 특히 인위적인 데이터가 아닌 실제 사용자 질의를 시뮬레이션함으로써 현재 AI 워크플로우에 숨겨진 병목 현상을 명확히 드러냈다. 연구 결과에 따르면 에이전트의 검색 및 추론 단계와 같은 과정의 품질은 최종 출력물의 신뢰도와 0.88이라는 매우 높은 상관관계를 보였다.
Claude나 Gemini 같은 최첨단 모델들에게도 멀티모달 AI 통합은 여전히 심층 연구 수행의 주요한 장애물로 남아 있다. 실제로 대부분의 시스템은 텍스트와 이미지를 동시에 처리해야 할 때 성능 점수가 최대 10점까지 하락하는 모습을 보였다. MiroThinker-H1 모델은 종합적인 분석력과 사실성 사이에서 가장 균형 잡힌 성과를 내며 해당 연구에서 최고 성과자로 부상했다. 이러한 결과는 에이전틱 AI의 문장 생성 능력은 비약적으로 발전했으나, 복잡하고 다층적인 정보를 탐색하는 능력은 여전히 정복해야 할 핵심 과제임을 시사한다.