Anthropic
Anthropic

Claude Haiku 4.5

2025-10-15

Claude Haiku 4.5는 Anthropic에서 가장 빠르고 비용 효율적인 모델로, 대형 Claude 모델의 일부 비용으로 최전선에 근접한 지능을 제공합니다. Claude Sonnet 4와 동등한 코딩 성능을 3분의 1 비용, 2배 이상의 속도로 달성하며, SWE-bench Verified에서 73.3%를 기록해 세계 최상위 코딩 모델에 포함됩니다. 확장 사고, 도구 사용, 컴퓨터 조작, 20만 토큰 컨텍스트 창을 지원하여 실시간 활용, 병렬 하위 에이전트, 대규모 배포에 적합합니다.

Anthropic FreeAnthropic ProAnthropic Max (5x)Anthropic Max (20x)API|비전심층 사고웹 검색|상용 모델
학습 완료일
2025-07
입력 형식 → 출력 형식
처리용량
200KIN64KOUT
개별 비용(백만 글자)
$1IN$5OUT
비용 계산하기

AI 성능 평가

Arena 종합 점수
1408
±3
집계일 2026-04-23
종합 순위
90위
63,329 투표수
Arena 능력별 점수
한국어 능력
1345±2186위
복잡한 질문
1437±474위
전문 지식
1447±1062위
지시 이행
1412±570위
대화 기억
1422±669위
창의력
1385±780위
코딩 실력
1476±653위
수학 능력
1392±10115위
Arena 직군별 점수
문학·창작
1395±682위
생활·사회과학
1422±791위
엔터·미디어
1382±682위
경영·금융
1414±674위
의학·보건
1416±11108위
법률·행정
1409±1098위
소프트웨어·IT
1459±564위
수학·통계
1420±1176위
종합
AA Intelligence Index
37%↓1%
LiveBench
43%↓17%
ForecastBench
59%↑0%
추론·수학
AA Math Index
84%↑10%
GPQA Diamond
67%↓14%
HLE
9.7%↓7%
MMLU-Pro
76%↓6%
AIME 2025
84%↑10%
LB 추론
34%↓26%
LB 수학
58%↓16%
LB 데이터 분석
45%↓4%
코딩
AA Coding Index
33%↓1%
LiveCodeBench
62%↓4%
LB 코딩
72%↓1%
LB 에이전틱
33%↓10%
TAU2
55%↓19%
TerminalBench
27%↓4%
SciCode
43%↑2%
언어·지시
IFBench
54%↓2%
AA-LCR
70%↑9%
환각률 (HHEM)
9.8%↑0%
사실 일관성 (HHEM)
90%↑0%
LB 언어
57%↓15%
LB 지시
18%↓28%
출력 속도
일반 모드
99tok/s↑17
출력 시작 0.51s
추론 모드
151tok/s↑63
출력 시작 13.70s