ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

xAI: Grok 4.20 Multi-Agent Beta vs Z.ai: GLM 4.7 Flash

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-12

指標 Grok 4.20 Multi-Agent Beta Grok 4.20 Multi-Agent Beta medium リリース: 2026-03-12 GLM 4.7 Flash GLM 4.7 Flash none リリース: 2026-01-19
順位 #47 #57
平均スコア 4.9 3.9
一貫性 7.1 8.4
結果あたりのコスト 97.178 0.066
合計コスト $4.859 $0.003
正解テスト
試行ごとの合格率 52.1% 35.4%
不安定なテスト 6 3
総実行回数 48 48
出力トークン 293,634 1,855
推論トークン 291,260 0
応答時間(平均) 9.08s 2.99s
応答時間(最大) 35.28s 7.05s
応答時間(合計) 127.09s 26.90s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

合計出力トークン

平均スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 4.0 4.4 66.7% 2 3.77s 28,392 27,808
GLM 4.7 Flash 10.0 7.2 22.2% 1 6.59s 430 0
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 10.0 10.0 0.0% 0 0ms 0 0
GLM 4.7 Flash 10.0 10.0 0.0% 0 3.22s 704 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 9.9 10.0 100.0% 0 5.54s 25,306 25,051
GLM 4.7 Flash 5.4 5.8 83.3% 1 4.82s 196 0
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 10.0 7.2 11.1% 1 24.67s 164,609 163,647
GLM 4.7 Flash 7.0 10.0 66.7% 0 744ms 19 0
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 4.0 2.8 66.7% 1 6.40s 15,848 15,746
GLM 4.7 Flash 3.0 10.0 0.0% 0 1.59s 134 0
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 9.0 10.0 50.0% 0 4.63s 25,457 25,322
GLM 4.7 Flash 5.5 10.0 50.0% 0 888ms 62 0
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 6.3 5.1 77.8% 2 5.01s 34,022 33,686
GLM 4.7 Flash 3.7 10.0 0.0% 0 1.00s 98 0
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Multi-Agent Beta 10.0 10.0 0.0% 0 0ms 0 0
GLM 4.7 Flash 10.0 1.6 33.3% 1 7.05s 212 0

クイック比較

比較ペアを切り替え