ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Sonnet 4.6 vs xAI: Grok 4.20 Beta

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-12

指標 Claude Sonnet 4.6 Claude Sonnet 4.6 none リリース: 2026-02-17 Grok 4.20 Beta Grok 4.20 Beta medium リリース: 2026-03-12
順位 #27 #24
平均スコア 6.8 7.0
一貫性 9.6 9.0
結果あたりのコスト 2.504 5.989
合計コスト $0.251 $0.599
正解テスト
試行ごとの合格率 66.7% 70.8%
不安定なテスト 1 2
総実行回数 48 48
出力トークン 6,895 1,481
推論トークン 0 86,628
応答時間(平均) 5.57s 8.89s
応答時間(最大) 23.84s 24.21s
応答時間(合計) 50.12s 142.18s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

合計出力トークン

平均スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 4.0 10.0 33.3% 0 4.83s 1,199 0
Grok 4.20 Beta 7.0 7.2 88.9% 1 3.19s 262 6,289
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 9.0 10.0 100.0% 0 23.84s 3,766 0
Grok 4.20 Beta 10.0 10.0 100.0% 0 20.93s 227 12,212
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 9.9 10.0 100.0% 0 3.43s 252 0
Grok 4.20 Beta 9.9 10.0 100.0% 0 4.01s 180 5,281
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 7.0 10.0 66.7% 0 3.54s 413 0
Grok 4.20 Beta 4.0 10.0 33.3% 0 21.33s 251 40,255
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 5.0 3.1 66.7% 1 2.56s 192 0
Grok 4.20 Beta 10.0 10.0 100.0% 0 5.78s 72 3,440
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 5.5 10.0 50.0% 0 1.96s 90 0
Grok 4.20 Beta 9.0 10.0 50.0% 0 4.97s 57 7,107
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 7.0 10.0 66.7% 0 2.92s 536 0
Grok 4.20 Beta 7.0 7.2 88.9% 1 3.85s 249 6,660
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Claude Sonnet 4.6 10.0 10.0 100.0% 0 4.11s 447 0
Grok 4.20 Beta 10.0 10.0 0.0% 0 12.39s 183 5,384

クイック比較

比較ペアを切り替え