导航
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY 对比

OpenAI: GPT-5 Nano vs Grok 4.20 Multi Agent Beta

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-04-04

指标 GPT-5 Nano GPT-5 Nano medium 发布日期: 2025-08-07 Grok 4.20 Multi Agent Beta Grok 4.20 Multi Agent Beta medium 发布日期: 2026-03-12
分数 6.2 6.2
排名 #54 #55
一致性 6.7 7.2
测试正确
尝试通过率 58.8% 54.9%
不稳定测试 7 6
总运行次数 51 51
每个结果成本 0.864 82.962
总成本 $0.061 $4.978
???? $0.050 / 1M $0.000 / 1M
???? $0.400 / 1M $0.000 / 1M
输出令牌 4,500 298,948
推理令牌 143,296 296,529
响应时间(平均) 44.47s 8.64s
响应时间(最大) 204.02s 35.28s
响应时间(总计) 444.74s 129.64s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

分数 vs 响应时间(平均)

总输出令牌

分数 vs 总输出令牌

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 6.5 7.9 58.3% 1 25.50s 1,221 21,184
Grok 4.20 Multi Agent Beta 6.9 5.8 75.0% 2 3.46s 33,706 33,077
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 10.0 10.0 100.0% 0 65.96s 578 17,984
Grok 4.20 Multi Agent Beta 3.0 10.0 0.0% 0 0ms 0 0
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 3.7 1.7 50.0% 2 21.42s 453 10,560
Grok 4.20 Multi Agent Beta 10.0 10.0 100.0% 0 5.54s 25,306 25,051
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 5.2 4.4 55.6% 2 204.02s 237 64,448
Grok 4.20 Multi Agent Beta 2.9 7.2 11.1% 1 24.67s 164,609 163,647
通用智能 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 4.1 10.0 0.0% 0 17.51s 202 4,608
Grok 4.20 Multi Agent Beta 5.8 2.8 66.7% 1 6.40s 15,848 15,746
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 8.5 6.8 83.3% 1 11.90s 382 4,096
Grok 4.20 Multi Agent Beta 8.3 10.0 50.0% 0 4.63s 25,457 25,322
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 5.3 7.2 44.4% 1 19.81s 869 13,440
Grok 4.20 Multi Agent Beta 7.2 5.1 77.8% 2 5.01s 34,022 33,686
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 10.0 10.0 100.0% 0 33.30s 558 6,976
Grok 4.20 Multi Agent Beta 3.0 10.0 0.0% 0 0ms 0 0

快速对比

切换对比组合