导航
AI BENCHY
比较 图表
❤️ Made by XCS
Your ad here

AI BENCHY 对比

OpenAI: GPT-5.4 vs Z.ai: GLM 4.7 Flash

比较:

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-05

指标 OpenAI: GPT-5.4 none 发布日期: 2026-03-05 Z.ai: GLM 4.7 Flash medium 发布日期: 2026-01-19
排名 #44 #52
平均分 4.6 3.3
测试正确
一致性 8.9 6.1
每个结果成本 1.496 1.018
总成本 $0.090 $0.041
尝试通过率 44.4% 44.4%
不稳定测试 2 7
common.totalAttempts 45 (15 x 3) 45 (15 x 3)
输出令牌 1,635 38,664
推理令牌 0 62,814
响应时间(平均) 1.46s 39.18s
响应时间(最大) 2.89s 174.55s
响应时间(总计) 21.86s 313.44s

按分数排名的模型

响应时间(平均)

分数 vs 总成本

平均分 vs 响应时间(平均)

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 7.3 11.1% 1 1.41s 388 0
Z.ai: GLM 4.7 Flash 4.0 4.5 55.6% 2 27.09s 1,085 5,597
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 10.0 0.0% 0 2.89s 291 0
Z.ai: GLM 4.7 Flash 10.0 2.1 33.3% 1 65.57s 2,585 20,648
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 1.04s 222 0
Z.ai: GLM 4.7 Flash 5.0 10.0 50.0% 0 1.51s 584 2,755
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 1.07s 50 0
Z.ai: GLM 4.7 Flash 10.0 4.4 33.3% 2 174.55s 33,000 25,394
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 5.5 10.0 50.0% 0 1.07s 81 0
Z.ai: GLM 4.7 Flash 5.0 5.8 66.7% 1 2.97s 388 2,181
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 4.0 9.8 33.3% 0 1.52s 357 0
Z.ai: GLM 4.7 Flash 10.0 7.2 11.1% 1 12.90s 798 5,225
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 2.75s 246 0
Z.ai: GLM 4.7 Flash 10.0 10.0 100.0% 0 15.95s 224 1,014

快速对比

切换对比组合