Claude Opus 4.5は、2025年11月にリリースされたAnthropicのフロンティア推論モデルで、複雑なソフトウェアエンジニアリング、エージェントワークフロー、長期的なコンピュータ活用に最適化されています。強力なマルチモーダル機能、プロンプトインジェクションへの堅牢性向上、タスクに応じて速度・深度・トークン使用量を調整できる新しい強度パラメータを提供します。自律的な研究、多段階デバッグ、スプレッドシートやブラウザの操作、マルチエージェント連携に優れ、構造化された推論と実行の信頼性で大幅な向上を実現しています。
Anthropic ProAnthropic Max (5x)Anthropic Max (20x)API|ビジョン深い思考Web検索ファイル|商用モデル
AI性能評価
Arena 総合点数
1473
±4集計日 2026-04-23
総合ランク
14位
37,164 投票数
Arena 能力別スコア
日本語能力
1453±369位
複雑な質問
1500±510位
専門知識
1505±1310位
指示遂行
1485±76位
会話記憶
1487±812位
創造力
1468±97位
コード作成
1531±78位
数学力
1470±1214位
Arena 職種別スコア
文学·創作
1465±79位
生活·社会
1489±811位
エンタメ
1456±810位
経営·金融
1468±819位
医学·保健
1489±1320位
法律·行政
1487±1211位
ソフト開発
1512±611位
数学·統計
1470±1519位
総合
AA Intelligence Index
50%↑11%
LiveBench
54%↓7%
ForecastBench
60%↑1%
推論·数学
AA Math Index
91%↑18%
GPQA Diamond
87%↑5%
HLE
28%↑11%
MMLU-Pro
90%↑8%
AIME 2025
91%↑18%
LB 推論
48%↓12%
LB 数学
64%↓9%
LB データ
44%↓5%
コーディング
AA Coding Index
48%↑14%
LiveCodeBench
87%↑22%
LB コード
78%↑5%
LB エージェント
50%↑7%
TAU2
90%↑16%
TerminalBench
47%↑16%
SciCode
50%↑9%
言語·指示
IFBench
58%↑1%
AA-LCR
74%↑12%
幻覚率 (HHEM)
11%↑1%
事実一貫性 (HHEM)
89%↓1%
LB 言語
77%↑5%
LB 指示
29%↓17%
出力速度
標準モード
51tok/s↓31
出力開始 1.21s
推論モード
68tok/s↓20
出力開始 10.52s