AI BENCHY
比較する
❤️ Made by XCS

モデル名

Anthropic: Claude Opus 4.6

ベンチマークは Aibenchy テストスイートから次の日時に生成 : 2026/02/19

指標 Anthropic: Claude Opus 4.6
順位#16
企業Anthropic
Score 5.42
一貫性 8.60
結果あたりのコスト 12.8695
合計コスト $0.77217
正解テスト 6/12
試行ごとの合格率 55.5%
不安定なテスト 2
出力トークン 18,415
推論トークン 10,289

カテゴリ内訳

カテゴリ 完全合格テスト Score 一貫性 試行ごとの合格率 不安定なテスト 推論スコア コスト
Anti-AI Tricks 0/2 1.00 1.62 33.3% 2 10.00 $0.03036
Data parsing and extraction 2/2 10.00 10.00 100.0% 0 9.83 $0.07755
Domain specific 0/3 1.00 10.00 0.0% 0 7.61 $0.60915
Instructions following 2/2 9.50 9.99 100.0% 0 9.50 $0.02231
Puzzle Solving 2/3 7.00 10.00 66.7% 0 9.44 $0.03281

比較対象モデル

Anthropic: Claude Opus 4.6 と比較...

#15 · Z.ai

Z.ai: GLM 5

推論なし

Score: 5.42

一貫性: 10.00

試行ごとの合格率: 50.0%

不安定なテスト: 0

結果あたりのコスト: 0.0704

正解テスト: 6/12

合計コスト: $0.00423

比較する

#17 · MiniMax

MiniMax: MiniMax M2.5

推論(medium)

Score: 5.08

一貫性: 6.00

試行ごとの合格率: 61.1%

不安定なテスト: 6

結果あたりのコスト: 4.0276

正解テスト: 5/12

合計コスト: $0.20138

比較する

#14 · Qwen

Qwen: Qwen3.5 Plus 2026-02-15

推論なし

Score: 5.67

一貫性: 9.99

試行ごとの合格率: 50.0%

不安定なテスト: 0

結果あたりのコスト: 0.0997

正解テスト: 6/12

合計コスト: $0.00599

比較する

クイック比較

Anthropic: Claude Opus 4.6 と比較...