DeepSeek V3.2は、高い計算効率とフロンティアレベルの推論およびエージェント型ツール活用性能を両立する大規模な混合エキスパート(MoE)言語モデルです。アテンションの計算量を二次から線形に削減するDeepSeek疎アテンション(DSA)を導入し、長文コンテキストでの学習・推論コストを大幅に低減します。スケーラブルな強化学習によるポストトレーニングでGPT-5に匹敵する性能を達成し、2025年の国際数学オリンピックと情報オリンピックで金メダル級の成果を記録しました。さらに大規模エージェントタスク合成パイプラインにより、複雑なインタラクティブ環境での指示追従とツール活用能力が大幅に向上しています。
DeepSeek V3.2は、高い計算効率とフロンティアレベルの推論およびエージェント型ツール活用性能を両立する大規模な混合エキスパート(MoE)言語モデルです。アテンションの計算量を二次から線形に削減するDeepSeek疎アテンション(DSA)を導入し、長文コンテキストでの学習・推論コストを大幅に低減します。スケーラブルな強化学習によるポストトレーニングでGPT-5に匹敵する性能を達成し、2025年の国際数学オリンピックと情報オリンピックで金メダル級の成果を記録しました。さらに大規模エージェントタスク合成パイプラインにより、複雑なインタラクティブ環境での指示追従とツール活用能力が大幅に向上しています。