导航
AI BENCHY
比较 图表 方法论
❤️ Made by XCS
Your ad here

AI BENCHY 对比

OpenAI: GPT-5.3-Codex vs OpenAI: GPT-5.4

比较:

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-06

指标 OpenAI: GPT-5.3-Codex medium 发布日期: 2026-02-05 OpenAI: GPT-5.4 medium 发布日期: 2026-03-05
平均分 8.7 8.2
排名 #4 #7
测试正确
一致性 9.0 8.9
每个结果成本 4.418 6.533
总成本 $0.531 $0.784
尝试通过率 88.9% 86.7%
不稳定测试 2 2
common.totalRuns 45 (15 x 3) 45 (15 x 3)
输出令牌 1,577 1,611
推理令牌 33,017 46,321
响应时间(平均) 17.37s 21.06s
响应时间(最大) 100.93s 100.41s
响应时间(总计) 260.52s 315.95s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

平均分 vs 响应时间(平均)

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 4.69s 216 1,421
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 5.02s 216 1,466
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 19.56s 364 2,731
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 20.57s 301 3,543
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 9.9 10.0 100.0% 0 3.07s 234 728
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 5.32s 234 804
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 4.0 7.2 55.6% 1 64.31s 64 25,308
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 74.27s 61 34,748
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 3.04s 93 693
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 3.11s 93 897
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 9.3 7.9 88.9% 1 5.12s 352 1,644
OpenAI: GPT-5.4 7.0 7.2 88.9% 1 9.13s 442 3,832
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 6.37s 254 492
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 13.28s 264 1,031

快速对比

切换对比组合