ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

xAI: Grok 4.20 Beta vs Z.ai: GLM 5

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-12

指標 Grok 4.20 Beta Grok 4.20 Beta medium リリース: 2026-03-12 GLM 5 GLM 5 none リリース: 2026-02-12
順位 #24 #33
平均スコア 7.0 6.0
一貫性 9.0 10.0
結果あたりのコスト 5.989 0.200
合計コスト $0.599 $0.018
正解テスト
試行ごとの合格率 70.8% 56.3%
不安定なテスト 2 0
総実行回数 48 48
出力トークン 1,481 1,548
推論トークン 86,628 0
応答時間(平均) 8.89s 4.03s
応答時間(最大) 24.21s 11.07s
応答時間(合計) 142.18s 36.30s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

合計出力トークン

平均スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 7.0 7.2 88.9% 1 3.19s 262 6,289
GLM 5 4.0 10.0 33.3% 0 3.39s 272 0
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 10.0 10.0 100.0% 0 20.93s 227 12,212
GLM 5 10.0 10.0 0.0% 0 4.98s 406 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 9.9 10.0 100.0% 0 4.01s 180 5,281
GLM 5 9.9 10.0 100.0% 0 5.78s 203 0
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 4.0 10.0 33.3% 0 21.33s 251 40,255
GLM 5 10.0 10.0 0.0% 0 2.24s 19 0
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 10.0 10.0 100.0% 0 5.78s 72 3,440
GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 9.0 10.0 50.0% 0 4.97s 57 7,107
GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 7.0 7.2 88.9% 1 3.85s 249 6,660
GLM 5 7.0 10.0 66.7% 0 2.05s 264 0
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 10.0 10.0 0.0% 0 12.39s 183 5,384
GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

クイック比較

比較ペアを切り替え