AI BENCHY 对比
OpenAI: GPT-5.4 Mini vs Laguna M.1
基准结果生成自 AI BENCHY 测试套件,时间:: 2026-04-29
| 指标 | GPT-5.4 Mini GPT-5.4 Mini none | Laguna M.1 Laguna M.1 none 免费可用 |
|---|---|---|
| 分数 | 5.1 | 5.1 |
| 排名 | #112 | #117 |
| 可靠性 | 不适用 | 9.9 |
| 一致性 | 8.6 | 8.7 |
| 测试正确 | ||
| 尝试通过率 | 35.2% | 33.3% |
| 不稳定测试 | 3 | 3 |
| 总运行次数 | 54 | 54 |
| 每个结果成本 | 0.630 | 0.000 |
| 总成本 | $0.032 | $0.000 |
| ???? | $0.750 / 1M | $0.000 / 1M |
| ???? | $4.500 / 1M | $0.000 / 1M |
| 输出令牌 | 2,418 | 2,870 |
| 推理令牌 | 0 | 0 |
| 响应时间(平均) | 1.17s | 2.79s |
| 响应时间(最大) | 2.52s | 15.42s |
| 响应时间(总计) | 21.01s | 50.24s |
分数 vs 总成本
响应时间(平均)
分数 vs 响应时间(平均)
总输出令牌
分数 vs 总输出令牌
类别细分
| 反AI技巧 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 3.1 | 8.1 | 8.3% | 1 | 929ms | 654 | 0 | |
| Laguna M.1 | 3.4 | 7.9 | 16.7% | 1 | 1.23s | 485 | 0 |
| 编程 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 10.0 | 10.0 | 100.0% | 0 | 1.19s | 333 | 0 | |
| Laguna M.1 | 7.5 | 3.8 | 66.7% | 1 | 2.93s | 543 | 0 |
| 综合 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 3.0 | 10.0 | 0.0% | 0 | 2.52s | 298 | 0 | |
| Laguna M.1 | 3.0 | 10.0 | 0.0% | 0 | 4.32s | 622 | 0 |
| 数据解析与提取 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 10.0 | 10.0 | 100.0% | 0 | 1.30s | 222 | 0 | |
| Laguna M.1 | 10.0 | 10.0 | 100.0% | 0 | 3.37s | 246 | 0 |
| 领域专项 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 3.5 | 4.4 | 33.3% | 2 | 937ms | 88 | 0 | |
| Laguna M.1 | 3.6 | 7.2 | 22.2% | 1 | 5.50s | 33 | 0 |
| 通用智能 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 4.8 | 10.0 | 0.0% | 0 | 1.82s | 174 | 0 | |
| Laguna M.1 | 4.0 | 10.0 | 0.0% | 0 | 3.08s | 212 | 0 |
| 指令遵循 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 6.3 | 10.0 | 50.0% | 0 | 728ms | 101 | 0 | |
| Laguna M.1 | 6.3 | 10.0 | 50.0% | 0 | 683ms | 80 | 0 |
| 谜题求解 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 5.4 | 10.0 | 33.3% | 0 | 860ms | 293 | 0 | |
| Laguna M.1 | 3.2 | 10.0 | 0.0% | 0 | 951ms | 340 | 0 |
| 工具调用 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.4 Mini | 3.0 | 10.0 | 0.0% | 0 | 2.32s | 255 | 0 | |
| Laguna M.1 | 10.0 | 10.0 | 100.0% | 0 | 7.54s | 309 | 0 |
快速对比
切换对比组合
Nemotron 3 Nano Omni 30b A3b Reasoningmedium免费可用vsGPT-5.4 MininoneGPT-5.4 MininonevsElephant AlphamediumMiniMax M2.7mediumvsGPT-5.4 MininoneNemotron 3 Nano Omni 30b A3b Reasoningmedium免费可用vsLaguna M.1none免费可用Elephant AlphamediumvsLaguna M.1none免费可用MiniMax M2.7mediumvsLaguna M.1none免费可用Laguna M.1none免费可用vsQwen3 Coder NextmediumGPT-5.4 MininonevsQwen3 Coder NextmediumLaguna M.1none免费可用vsGLM 4.7 FlashmediumMistral Small 4mediumvsGPT-5.4 MininoneGPT-5.4 MininonevsGLM 4.7 FlashmediumMiniMax M2.5medium免费可用vsGPT-5.4 Mininone