MiniMax M2.7은 M2.5를 기반으로 자기 진화 훈련 패러다임을 도입한 차세대 플래그십 모델로, 훈련 중 100회 이상의 스캐폴드 최적화를 자율 실행하여 30%의 성능 향상을 달성했습니다. 에이전트 팀, 동적 도구 검색, 정교한 생산성 작업 등 복잡한 에이전트 워크플로에 맞게 설계되었습니다. SWE-Pro에서 56.22%(GPT-5.3-Codex 동급), Terminal Bench 2에서 57.0%를 기록하며 시스템 수준의 이해력을 보여줍니다. 2,300억 희소 MoE 구조 기반으로 입력 100만 토큰당 0.30달러의 저렴한 가격에 프론티어 성능을 제공합니다.
MiniMax M2.7은 M2.5를 기반으로 자기 진화 훈련 패러다임을 도입한 차세대 플래그십 모델로, 훈련 중 100회 이상의 스캐폴드 최적화를 자율 실행하여 30%의 성능 향상을 달성했습니다. 에이전트 팀, 동적 도구 검색, 정교한 생산성 작업 등 복잡한 에이전트 워크플로에 맞게 설계되었습니다. SWE-Pro에서 56.22%(GPT-5.3-Codex 동급), Terminal Bench 2에서 57.0%를 기록하며 시스템 수준의 이해력을 보여줍니다. 2,300억 희소 MoE 구조 기반으로 입력 100만 토큰당 0.30달러의 저렴한 가격에 프론티어 성능을 제공합니다.