DeepSeek V3.2는 높은 연산 효율과 최전선 수준의 추론 및 에이전트 도구 활용 성능을 결합한 대규모 전문가 혼합(MoE) 언어 모델입니다. 어텐션 복잡도를 이차에서 선형으로 줄이는 DeepSeek 희소 어텐션(DSA) 기법을 도입하여 장문 맥락에서의 학습과 추론 비용을 크게 절감합니다. 확장 가능한 강화 학습 후훈련을 통해 GPT-5에 견줄 만한 성능을 달성했으며, 2025년 국제 수학 올림피아드와 정보 올림피아드에서 금메달급 성과를 기록했습니다. 또한 대규모 에이전트 작업 합성 파이프라인으로 복잡한 대화 환경에서의 지시 따르기와 도구 활용 능력이 대폭 향상되었습니다.
DeepSeek V3.2는 높은 연산 효율과 최전선 수준의 추론 및 에이전트 도구 활용 성능을 결합한 대규모 전문가 혼합(MoE) 언어 모델입니다. 어텐션 복잡도를 이차에서 선형으로 줄이는 DeepSeek 희소 어텐션(DSA) 기법을 도입하여 장문 맥락에서의 학습과 추론 비용을 크게 절감합니다. 확장 가능한 강화 학습 후훈련을 통해 GPT-5에 견줄 만한 성능을 달성했으며, 2025년 국제 수학 올림피아드와 정보 올림피아드에서 금메달급 성과를 기록했습니다. 또한 대규모 에이전트 작업 합성 파이프라인으로 복잡한 대화 환경에서의 지시 따르기와 도구 활용 능력이 대폭 향상되었습니다.