DeepSeek V3.2は、高い計算効率とフロンティアレベルの推論およびエージェント型ツール活用性能を両立する大規模な混合エキスパート(MoE)言語モデルです。アテンションの計算量を二次から線形に削減するDeepSeek疎アテンション(DSA)を導入し、長文コンテキストでの学習・推論コストを大幅に低減します。スケーラブルな強化学習によるポストトレーニングでGPT-5に匹敵する性能を達成し、2025年の国際数学オリンピックと情報オリンピックで金メダル級の成果を記録しました。さらに大規模エージェントタスク合成パイプラインにより、複雑なインタラクティブ環境での指示追従とツール活用能力が大幅に向上しています。
API|深い思考|公開モデルMIT
AI性能評価
Arena 総合点数
1424
±4集計日 2026-04-23
総合ランク
64位
44,738 投票数
Arena 能力別スコア
日本語能力
1373±3352位
複雑な質問
1447±563位
専門知識
1447±1264位
指示遂行
1419±655位
会話記憶
1427±864位
創造力
1399±859位
コード作成
1468±765位
数学力
1428±1157位
Arena 職種別スコア
文学·創作
1410±756位
生活·社会
1448±860位
エンタメ
1395±767位
経営·金融
1420±766位
医学·保健
1441±1273位
法律·行政
1431±1170位
ソフト開発
1456±667位
数学·統計
1438±1456位
総合
AA Intelligence Index
42%↑3%
LiveBench
50%↓11%
推論·数学
AA Math Index
92%↑19%
GPQA Diamond
84%↑3%
HLE
22%↑5%
MMLU-Pro
86%↑4%
AIME 2025
92%↑18%
LB 推論
44%↓15%
LB 数学
64%↓10%
LB データ
45%↓5%
コーディング
AA Coding Index
37%↑3%
LiveCodeBench
86%↑21%
LB コード
76%↑2%
LB エージェント
47%↑3%
TAU2
91%↑17%
TerminalBench
36%↑5%
SciCode
39%↓2%
言語·指示
IFBench
61%↑4%
AA-LCR
65%↑3%
幻覚率 (HHEM)
6.3%↓4%
事実一貫性 (HHEM)
94%↑4%
LB 言語
64%↓8%
LB 指示
23%↓23%
出力速度
標準モード
47tok/s↓35
出力開始 1.26s
推論モード
77tok/s↓11
出力開始 26.78s