1 / 3
좌우로 스와이프

DeepSeek V3.2는 높은 연산 효율과 최전선 수준의 추론 및 에이전트 도구 활용 성능을 결합한 대규모 전문가 혼합(MoE) 언어 모델입니다. 어텐션 복잡도를 이차에서 선형으로 줄이는 DeepSeek 희소 어텐션(DSA) 기법을 도입하여 장문 맥락에서의 학습과 추론 비용을 크게 절감합니다. 확장 가능한 강화 학습 후훈련을 통해 GPT-5에 견줄 만한 성능을 달성했으며, 2025년 국제 수학 올림피아드와 정보 올림피아드에서 금메달급 성과를 기록했습니다. 또한 대규모 에이전트 작업 합성 파이프라인으로 복잡한 대화 환경에서의 지시 따르기와 도구 활용 능력이 대폭 향상되었습니다.

제공사
DeepSeekDeepSeek
출시일
2025-12-01
학습완료일
2025-03
라이선스
공개 모델
입출력 형식
처리용량
164K / 164K
API 입출력 (1M)
$0.252 / $0.378
사용 방법
API 연결
출력 속도
47 tok/s
Arena 종합
1424
Intelligence Index
41.7
Coding Index
36.7
Math Index
92.0
LiveBench
49.8
ForecastBench
GPQA Diamond
84.0%
HLE
22.2%
MMLU-Pro
86.2%
AIME 2025
92.0%
MATH-500
LB 추론
44.3
LB 수학
64.0
LB 데이터 분석
45.0
LiveCodeBench
86.2%
LB 코딩
75.7
LB 에이전틱
46.7
TAU2
90.6%
TerminalBench
35.6%
SciCode
38.9%
IFBench
60.7%
AA-LCR
0.7
환각률 (HHEM)
6.3%
사실 일관성 (HHEM)
93.7%
LB 언어
64.2
LB 지시
23.1