AI BENCHY Compare
Google: Gemini 3.1 Pro Preview vs Z.ai: GLM 5 Turbo
ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-15
| 指標 | Gemini 3.1 Pro Preview Gemini 3.1 Pro Preview medium | GLM 5 Turbo GLM 5 Turbo none |
|---|---|---|
| 順位 | #2 | #53 |
| スコア | 9.5 | 5.7 |
| 一貫性 | 10.0 | 9.5 |
| 結果あたりのコスト | 3.417 | 0.467 |
| 合計コスト | $0.513 | $0.028 |
| 正解テスト | ||
| 試行ごとの合格率 | 93.8% | 39.6% |
| 不安定なテスト | 0 | 1 |
| 総実行回数 | 48 | 48 |
| 出力トークン | 1,521 | 1,264 |
| 推論トークン | 35,656 | 0 |
| 応答時間(平均) | 16.60s | 2.92s |
| 応答時間(最大) | 40.61s | 8.21s |
| 応答時間(合計) | 149.36s | 46.72s |
スコア vs 総コスト
応答時間(平均)
スコア vs 応答時間(平均)
合計出力トークン
スコア vs 合計出力トークン
カテゴリ内訳
| 反AIトリック | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 10.0 | 10.0 | 100.0% | 0 | 9.52s | 106 | 2,533 | |
| GLM 5 Turbo | 3.0 | 10.0 | 0.0% | 0 | 3.01s | 376 | 0 |
| 複合 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 9.5 | 10.0 | 100.0% | 0 | 40.61s | 432 | 9,281 | |
| GLM 5 Turbo | 3.0 | 10.0 | 0.0% | 0 | 4.89s | 144 | 0 |
| データ解析と抽出 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 10.0 | 10.0 | 100.0% | 0 | 7.72s | 279 | 3,904 | |
| GLM 5 Turbo | 10.0 | 10.0 | 100.0% | 0 | 2.47s | 204 | 0 |
| ドメイン特化 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 7.7 | 10.0 | 66.7% | 0 | 32.73s | 18 | 12,424 | |
| GLM 5 Turbo | 5.3 | 10.0 | 33.3% | 0 | 1.97s | 25 | 0 |
| 汎用知能 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 10.0 | 10.0 | 100.0% | 0 | 11.77s | 108 | 1,179 | |
| GLM 5 Turbo | 4.2 | 9.9 | 0.0% | 0 | 2.18s | 48 | 0 |
| 指示追従 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 10.0 | 10.0 | 100.0% | 0 | 9.56s | 72 | 2,236 | |
| GLM 5 Turbo | 6.5 | 10.0 | 50.0% | 0 | 2.13s | 65 | 0 |
| Puzzle Solving | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 10.0 | 10.0 | 100.0% | 0 | 7.15s | 232 | 3,117 | |
| GLM 5 Turbo | 5.5 | 7.4 | 44.4% | 1 | 2.43s | 180 | 0 |
| ツール呼び出し | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| Gemini 3.1 Pro Preview | 10.0 | 10.0 | 100.0% | 0 | 23.15s | 274 | 982 | |
| GLM 5 Turbo | 10.0 | 10.0 | 100.0% | 0 | 8.21s | 222 | 0 |
クイック比較
比較ペアを切り替え
MiniMax M2.5medium無料で利用可能vsGLM 5 TurbononeGrok 4.20 Multi-Agent BetamediumvsGLM 5 Turbononegpt-oss-120bmedium無料で利用可能vsGLM 5 TurbononeGPT-5 NanomediumvsGLM 5 TurbononeMercury 2mediumvsGLM 5 TurbononeQwen3 Coder NextmediumvsGLM 5 TurbononeNemotron 3 Super 120b A12bmedium無料で利用可能vsGLM 5 TurbononeQwen3.5-9BmediumvsGLM 5 TurbononeGPT-5 MinimediumvsGLM 5 TurbononeGrok 4.1 FastmediumvsGLM 5 TurbononeQwen3.5-35B-A3BmediumvsGLM 5 TurbononeHunter AlphamediumvsGLM 5 Turbonone