DeepSeek
DeepSeek

DeepSeek V3.2

2025-12-01

DeepSeek V3.2는 높은 연산 효율과 최전선 수준의 추론 및 에이전트 도구 활용 성능을 결합한 대규모 전문가 혼합(MoE) 언어 모델입니다. 어텐션 복잡도를 이차에서 선형으로 줄이는 DeepSeek 희소 어텐션(DSA) 기법을 도입하여 장문 맥락에서의 학습과 추론 비용을 크게 절감합니다. 확장 가능한 강화 학습 후훈련을 통해 GPT-5에 견줄 만한 성능을 달성했으며, 2025년 국제 수학 올림피아드와 정보 올림피아드에서 금메달급 성과를 기록했습니다. 또한 대규모 에이전트 작업 합성 파이프라인으로 복잡한 대화 환경에서의 지시 따르기와 도구 활용 능력이 대폭 향상되었습니다.

API|심층 사고|공개 모델MIT
학습 완료일
2025-03
입력 형식 → 출력 형식
처리용량
164KIN164KOUT
개별 비용(백만 글자)
$0.252IN$0.378OUT
비용 계산하기

AI 성능 평가

Arena 종합 점수
1424
±4
집계일 2026-04-23
종합 순위
64위
44,738 투표수
Arena 능력별 점수
한국어 능력
1369±2360위
복잡한 질문
1447±563위
전문 지식
1447±1264위
지시 이행
1419±655위
대화 기억
1427±864위
창의력
1399±859위
코딩 실력
1468±765위
수학 능력
1428±1157위
Arena 직군별 점수
문학·창작
1410±756위
생활·사회과학
1448±860위
엔터·미디어
1395±767위
경영·금융
1420±766위
의학·보건
1441±1273위
법률·행정
1431±1170위
소프트웨어·IT
1456±667위
수학·통계
1438±1456위
종합
AA Intelligence Index
42%↑3%
LiveBench
50%↓11%
추론·수학
AA Math Index
92%↑19%
GPQA Diamond
84%↑3%
HLE
22%↑5%
MMLU-Pro
86%↑4%
AIME 2025
92%↑18%
LB 추론
44%↓15%
LB 수학
64%↓10%
LB 데이터 분석
45%↓5%
코딩
AA Coding Index
37%↑3%
LiveCodeBench
86%↑21%
LB 코딩
76%↑2%
LB 에이전틱
47%↑3%
TAU2
91%↑17%
TerminalBench
36%↑5%
SciCode
39%↓2%
언어·지시
IFBench
61%↑4%
AA-LCR
65%↑3%
환각률 (HHEM)
6.3%↓4%
사실 일관성 (HHEM)
94%↑4%
LB 언어
64%↓8%
LB 지시
23%↓23%
출력 속도
일반 모드
47tok/s↓35
출력 시작 1.26s
추론 모드
77tok/s↓11
출력 시작 26.78s