导航
AI BENCHY
Your ad here

AI BENCHY 对比

OpenAI: GPT-5 Nano vs xAI: Grok 4.1 Fast

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-04-29

指标 GPT-5 Nano GPT-5 Nano medium 发布日期: 2025-08-07 Grok 4.1 Fast Grok 4.1 Fast medium 发布日期: 2025-11-19
分数 6.3 6.7
排名 #74 #68
可靠性 不适用 不适用
一致性 6.5 7.2
测试正确
尝试通过率 59.3% 64.8%
不稳定测试 8 6
总运行次数 54 54
每个结果成本 0.942 0.613
总成本 $0.066 $0.056
???? $0.050 / 1M $0.200 / 1M
???? $0.400 / 1M $0.500 / 1M
输出令牌 4,980 2,010
推理令牌 156,288 91,298
响应时间(平均) 44.13s 23.88s
响应时间(最大) 204.02s 121.79s
响应时间(总计) 485.47s 262.66s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

分数 vs 响应时间(平均)

总输出令牌

分数 vs 总输出令牌

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 6.5 7.9 58.3% 1 25.50s 1,221 21,184
Grok 4.1 Fast 8.7 7.9 91.7% 1 3.81s 108 4,741
编程 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 6.7 3.5 66.7% 1 40.73s 480 12,992
Grok 4.1 Fast 2.3 1.1 33.3% 1 23.58s 821 6,703
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 10.0 10.0 100.0% 0 65.96s 578 17,984
Grok 4.1 Fast 10.0 10.0 100.0% 0 37.64s 261 12,272
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 3.7 1.7 50.0% 2 21.42s 453 10,560
Grok 4.1 Fast 10.0 10.0 100.0% 0 6.63s 180 5,409
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 5.2 4.4 55.6% 2 204.02s 237 64,448
Grok 4.1 Fast 5.8 4.4 66.7% 2 121.79s 11 37,657
通用智能 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 4.1 10.0 0.0% 0 17.51s 202 4,608
Grok 4.1 Fast 4.2 9.9 0.0% 0 16.25s 127 3,456
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 8.5 6.8 83.3% 1 11.90s 382 4,096
Grok 4.1 Fast 6.6 10.0 50.0% 0 5.30s 55 3,489
谜题求解 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 5.3 7.2 44.4% 1 19.81s 869 13,440
Grok 4.1 Fast 5.3 7.2 44.4% 1 8.08s 187 6,086
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5 Nano 10.0 10.0 100.0% 0 33.30s 558 6,976
Grok 4.1 Fast 2.8 1.6 33.3% 1 27.71s 260 11,485

快速对比

切换对比组合