AI BENCHY 对比
OpenAI: GPT-5.4 Nano vs GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT
基准结果生成自 AI BENCHY 测试套件,时间:: 2026-04-02
| 指标 | GPT-5.4 Nano GPT-5.4 Nano none | GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT none |
|---|---|---|
| 分数 | 4.3 | 3.0 |
| 排名 | #86 | #88 |
| 一致性 | 7.3 | 10.0 |
| 测试正确 | ||
| 尝试通过率 | 29.4% | 0.0% |
| 不稳定测试 | 6 | 0 |
| 总运行次数 | 51 | 48 |
| 每个结果成本 | 0.404 | 0.000 |
| 总成本 | $0.009 | $0.000 |
| ???? | $0.200 / 1M | $0.000 / 1M |
| ???? | $1.250 / 1M | $0.000 / 1M |
| 输出令牌 | 2,185 | 0 |
| 推理令牌 | 0 | 0 |
| 响应时间(平均) | 1.39s | 0ms |
| 响应时间(最大) | 3.84s | 0ms |
| 响应时间(总计) | 23.70s | 0ms |
分数 vs 总成本
响应时间(平均)
分数 vs 响应时间(平均)
总输出令牌
分数 vs 总输出令牌
类别细分
| 反AI技巧 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 3.5 | 8.0 | 16.7% | 1 | 1.18s | 800 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| 综合 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 3.0 | 10.0 | 0.0% | 0 | 3.84s | 280 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| 数据解析与提取 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 6.5 | 10.0 | 50.0% | 0 | 1.11s | 219 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| 领域专项 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 2.9 | 4.4 | 22.2% | 2 | 926ms | 52 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| 通用智能 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 3.8 | 2.5 | 33.3% | 1 | 1.31s | 180 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| 指令遵循 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 5.0 | 6.8 | 33.3% | 1 | 787ms | 84 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| Puzzle Solving | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 3.7 | 7.3 | 22.2% | 1 | 1.29s | 348 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
| 工具调用 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Nano | 10.0 | 10.0 | 100.0% | 0 | 3.40s | 222 | 0 | |
| GLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b IT | 3.0 | 10.0 | 0.0% | 0 | 0ms | 0 | 0 |
快速对比
切换对比组合
GPT-5.4 NanononevsQwen3.5-9BmediumGPT-5.4 NanononevsGLM 4.7 FlashmediumGPT-5.4 NanononevsQwen3 Coder NextmediumMiniMax M2.7mediumvsGPT-5.4 NanononeMistral Small 4mediumvsGPT-5.4 NanononeQwen3.5-9BmediumvsGLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b ITnoneMiniMax M2.5medium免费可用vsGPT-5.4 NanononeQwen3 Coder NextmediumvsGLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b ITnoneGPT-5.4 NanononevsGrok 4.20 Multi Agent BetamediumMercury 2mediumvsGPT-5.4 NanononeMiniMax M2.7mediumvsGLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b ITnoneMistral Small 4mediumvsGLM 5v Turbo X Ai/grok 4.20 Google/gemma 4 31b ITnone