AI BENCHY 对比
OpenAI: GPT-5 Nano vs xAI: Grok 4.20 Beta
基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-12
| 指标 | GPT-5 Nano GPT-5 Nano medium | Grok 4.20 Beta Grok 4.20 Beta none |
|---|---|---|
| 排名 | #38 | #52 |
| 平均分 | 5.5 | 4.4 |
| 一致性 | 7.0 | 9.1 |
| 每个结果成本 | 0.856 | 2.214 |
| 总成本 | $0.060 | $0.089 |
| 测试正确 | ||
| 尝试通过率 | 60.4% | 33.3% |
| 不稳定测试 | 6 | 2 |
| 总运行次数 | 48 | 48 |
| 输出令牌 | 4,386 | 1,511 |
| 推理令牌 | 142,080 | 0 |
| 响应时间(平均) | 47.94s | 1.22s |
| 响应时间(最大) | 204.02s | 6.48s |
| 响应时间(总计) | 431.47s | 19.53s |
分数 vs 总成本
响应时间(平均)
平均分 vs 响应时间(平均)
总输出令牌
平均分 vs 总输出令牌
类别细分
| 反AI技巧 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 7.0 | 10.0 | 66.7% | 0 | 37.73s | 1,107 | 19,968 | |
| Grok 4.20 Beta | 3.3 | 7.9 | 22.2% | 1 | 562ms | 245 | 0 |
| 综合 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 10.0 | 10.0 | 100.0% | 0 | 65.96s | 578 | 17,984 | |
| Grok 4.20 Beta | 10.0 | 10.0 | 0.0% | 0 | 6.48s | 282 | 0 |
| 数据解析与提取 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 10.0 | 1.7 | 50.0% | 2 | 21.42s | 453 | 10,560 | |
| Grok 4.20 Beta | 9.9 | 10.0 | 100.0% | 0 | 601ms | 197 | 0 |
| 领域专项 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 4.0 | 4.4 | 55.6% | 2 | 204.02s | 237 | 64,448 | |
| Grok 4.20 Beta | 10.0 | 10.0 | 0.0% | 0 | 611ms | 160 | 0 |
| 通用智能 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 3.0 | 10.0 | 0.0% | 0 | 17.51s | 202 | 4,608 | |
| Grok 4.20 Beta | 5.0 | 10.0 | 0.0% | 0 | 541ms | 87 | 0 |
| 指令遵循 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 9.0 | 6.8 | 83.3% | 1 | 11.90s | 382 | 4,096 | |
| Grok 4.20 Beta | 4.5 | 10.0 | 0.0% | 0 | 687ms | 60 | 0 |
| Puzzle Solving | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 4.0 | 7.2 | 44.4% | 1 | 19.81s | 869 | 13,440 | |
| Grok 4.20 Beta | 4.0 | 7.2 | 55.6% | 1 | 541ms | 291 | 0 |
| 工具调用 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5 Nano | 10.0 | 10.0 | 100.0% | 0 | 33.30s | 558 | 6,976 | |
| Grok 4.20 Beta | 10.0 | 10.0 | 100.0% | 0 | 4.79s | 189 | 0 |
快速对比
切换对比组合
DeepSeek V3.2nonevsGPT-5 NanomediumGPT-5 NanomediumvsQwen3.5-FlashnoneMiniMax M2.5mediumvsGrok 4.20 BetanoneGemini 2.5 FlashnonevsGPT-5 NanomediumGPT-5 NanomediumvsGLM 5noneGPT-5 NanomediumvsQwen3.5-122B-A10BnoneSeed-2.0-LitenonevsGPT-5 NanomediumGPT-5 NanomediumvsQwen3.5-27Bnonegpt-oss-120bmedium免费可用vsGrok 4.20 BetanoneGPT-5 NanomediumvsQwen3.5 Plus 2026-02-15noneGPT-5 NanomediumvsQwen3.5-35B-A3BnoneMercury 2mediumvsGrok 4.20 Betanone