导航
AI BENCHY
比较 图表
❤️ Made by XCS
Your ad here

AI BENCHY 对比

Inception: Mercury 2 vs OpenAI: GPT-5 Nano

比较:

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-05

指标 Inception: Mercury 2 none 发布日期: 2026-02-24 OpenAI: GPT-5 Nano medium 发布日期: 2025-08-07
排名 #50 #34
平均分 3.4 5.7
测试正确
一致性 8.9 6.8
每个结果成本 0.147 0.829
总成本 $0.006 $0.058
尝试通过率 33.3% 64.4%
不稳定测试 2 6
common.totalAttempts 45 (15 x 3) 45 (15 x 3)
输出令牌 1,144 4,184
推理令牌 0 137,472
响应时间(平均) 594ms 51.74s
响应时间(最大) 1.27s 204.02s
响应时间(总计) 8.91s 413.95s

按分数排名的模型

响应时间(平均)

分数 vs 总成本

平均分 vs 响应时间(平均)

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 10.0 10.0 0.0% 0 466ms 274 0
OpenAI: GPT-5 Nano 7.0 10.0 66.7% 0 37.73s 1,107 19,968
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 10.0 10.0 0.0% 0 606ms 131 0
OpenAI: GPT-5 Nano 10.0 10.0 100.0% 0 65.96s 578 17,984
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 5.5 5.9 83.3% 1 667ms 180 0
OpenAI: GPT-5 Nano 10.0 1.7 50.0% 2 21.42s 453 10,560
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 4.0 7.2 44.4% 1 534ms 46 0
OpenAI: GPT-5 Nano 4.0 4.4 55.6% 2 204.02s 237 64,448
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 5.5 10.0 50.0% 0 551ms 82 0
OpenAI: GPT-5 Nano 9.0 6.8 83.3% 1 11.90s 382 4,096
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 10.0 10.0 0.0% 0 533ms 234 0
OpenAI: GPT-5 Nano 4.0 7.2 44.4% 1 19.81s 869 13,440
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Inception: Mercury 2 10.0 10.0 100.0% 0 1.27s 197 0
OpenAI: GPT-5 Nano 10.0 10.0 100.0% 0 33.30s 558 6,976

快速对比

切换对比组合