MiniMax M2.7は、M2.5を基盤に自己進化型訓練パラダイムを導入した次世代フラッグシップモデルで、訓練中に100回以上のスキャフォールド最適化を自律実行し、30%の性能向上を達成しました。エージェントチーム、動的ツール検索、精巧な生産性タスクなど複雑なエージェントワークフロー向けに設計されています。SWE-Proで56.22%(GPT-5.3-Codex同等)、Terminal Bench 2で57.0%を記録し、システムレベルの理解力を実証しています。2,300億の疎なMoEアーキテクチャに基づき、入力100万トークンあたり0.30ドルという低価格でフロンティア性能を提供します。
MiniMax M2.7は、M2.5を基盤に自己進化型訓練パラダイムを導入した次世代フラッグシップモデルで、訓練中に100回以上のスキャフォールド最適化を自律実行し、30%の性能向上を達成しました。エージェントチーム、動的ツール検索、精巧な生産性タスクなど複雑なエージェントワークフロー向けに設計されています。SWE-Proで56.22%(GPT-5.3-Codex同等)、Terminal Bench 2で57.0%を記録し、システムレベルの理解力を実証しています。2,300億の疎なMoEアーキテクチャに基づき、入力100万トークンあたり0.30ドルという低価格でフロンティア性能を提供します。