导航
AI BENCHY
Your ad here

AI BENCHY 对比

OpenAI: GPT-5.4 Nano vs Qwen: Qwen3 Coder Next

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-17

指标 GPT-5.4 Nano GPT-5.4 Nano none 发布日期: 2026-03-17 Qwen3 Coder Next Qwen3 Coder Next medium 发布日期: 2026-02-03
排名 #73 #68
分数 4.3 4.8
一致性 7.3 9.2
每个结果成本 0.404 0.230
总成本 $0.009 $0.007
测试正确
尝试通过率 29.4% 25.5%
不稳定测试 6 2
总运行次数 51 51
输出令牌 2,185 2,941
推理令牌 0 0
响应时间(平均) 1.39s 11.57s
响应时间(最大) 3.84s 81.80s
响应时间(总计) 23.70s 127.32s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

分数 vs 响应时间(平均)

总输出令牌

分数 vs 总输出令牌

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 3.5 8.0 16.7% 1 1.18s 800 0
Qwen3 Coder Next 3.5 8.1 16.7% 1 8.64s 1,252 0
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 3.0 10.0 0.0% 0 3.84s 280 0
Qwen3 Coder Next 3.0 10.0 0.0% 0 4.28s 317 0
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 6.5 10.0 50.0% 0 1.11s 219 0
Qwen3 Coder Next 6.5 10.0 50.0% 0 81.80s 246 0
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 2.9 4.4 22.2% 2 926ms 52 0
Qwen3 Coder Next 5.3 10.0 33.3% 0 638ms 25 0
通用智能 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 3.8 2.5 33.3% 1 1.31s 180 0
Qwen3 Coder Next 6.3 3.4 66.7% 1 1.39s 142 0
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 5.0 6.8 33.3% 1 787ms 84 0
Qwen3 Coder Next 4.8 10.0 0.0% 0 7.34s 63 0
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 3.7 7.3 22.2% 1 1.29s 348 0
Qwen3 Coder Next 3.1 10.0 0.0% 0 2.30s 641 0
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
GPT-5.4 Nano 10.0 10.0 100.0% 0 3.40s 222 0
Qwen3 Coder Next 10.0 10.0 100.0% 0 2.64s 255 0

快速对比

切换对比组合