1 / 3
左右にスワイプ

DeepSeek V3.2は、高い計算効率とフロンティアレベルの推論およびエージェント型ツール活用性能を両立する大規模な混合エキスパート(MoE)言語モデルです。アテンションの計算量を二次から線形に削減するDeepSeek疎アテンション(DSA)を導入し、長文コンテキストでの学習・推論コストを大幅に低減します。スケーラブルな強化学習によるポストトレーニングでGPT-5に匹敵する性能を達成し、2025年の国際数学オリンピックと情報オリンピックで金メダル級の成果を記録しました。さらに大規模エージェントタスク合成パイプラインにより、複雑なインタラクティブ環境での指示追従とツール活用能力が大幅に向上しています。

提供元
DeepSeekDeepSeek
リリース日
2025-12-01
学習完了日
2025-03
ライセンス
公開モデル
入出力形式
コンテキスト長
164K / 164K
API入出力 (1M)
$0.252 / $0.378
利用方法
API連携
出力速度
47 tok/s
Arena 総合
1424
Intelligence Index
41.7
Coding Index
36.7
Math Index
92.0
LiveBench
49.8
ForecastBench
GPQA Diamond
84.0%
HLE
22.2%
MMLU-Pro
86.2%
AIME 2025
92.0%
MATH-500
LB 推論
44.3
LB 数学
64.0
LB データ分析
45.0
LiveCodeBench
86.2%
LB コーディング
75.7
LB エージェンティック
46.7
TAU2
90.6%
TerminalBench
35.6%
SciCode
38.9%
IFBench
60.7%
AA-LCR
0.7
幻覚率 (HHEM)
6.3%
事実一貫性 (HHEM)
93.7%
LB 言語
64.2
LB 指示
23.1