ナビゲーション
AI BENCHY
比較する チャート
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs Inception: Mercury 2

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-05

指標 Anthropic: Claude Opus 4.6 medium リリース: 2026-02-05 Inception: Mercury 2 none リリース: 2026-02-24
順位 #30 #50
平均スコア 64 34
一貫性 89 89
結果あたりのコスト 14.411 0.147
合計コスト $1.297 $0.006
応答時間(平均) 25.08s 594ms
応答時間(最大) 83.40s 1.27s
応答時間(合計) 200.67s 8.91s
正解テスト
試行ごとの合格率 64.4% 33.3%
不安定なテスト 2 2
出力トークン 26,066 1,144
推論トークン 17,071 0

スコア上位モデル

応答時間(平均)

スコア vs 総コスト

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 40 44 55.6% 2 11.88s 897 1,000
Inception: Mercury 2 100 100 0.0% 0 466ms 274 0
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 100 100 100.0% 0 76.66s 8,178 5,194
Inception: Mercury 2 100 100 0.0% 0 606ms 131 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 99 100 100.0% 0 7.37s 691 757
Inception: Mercury 2 55 59 83.3% 1 667ms 180 0
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 100 100 0.0% 0 83.40s 14,642 8,687
Inception: Mercury 2 40 72 44.4% 1 534ms 46 0
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 100 100 100.0% 0 2.43s 266 467
Inception: Mercury 2 55 100 50.0% 0 551ms 82 0
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 70 100 66.7% 0 4.60s 531 637
Inception: Mercury 2 100 100 0.0% 0 533ms 234 0
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 100 100 100.0% 0 9.73s 861 329
Inception: Mercury 2 100 100 100.0% 0 1.27s 197 0

クイック比較

比較ペアを切り替え