导航
AI BENCHY
比较 图表 方法论
❤️ Made by XCS
Your ad here

AI BENCHY 对比

OpenAI: GPT-5.4 vs Z.ai: GLM 5

比较:

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-06

指标 OpenAI: GPT-5.4 medium 发布日期: 2026-03-05 Z.ai: GLM 5 none 发布日期: 2026-02-12
排名 #9 #31
平均分 8.0 6.0
一致性 8.5 10.0
每个结果成本 6.601 0.200
总成本 $0.793 $0.018
测试正确
尝试通过率 83.3% 56.3%
不稳定测试 3 0
总运行次数 48 (16 x 3) 48 (16 x 3)
输出令牌 1,756 1,548
推理令牌 46,642 0
响应时间(平均) 20.05s 4.03s
响应时间(最大) 100.41s 11.07s
响应时间(总计) 320.87s 36.30s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

平均分 vs 响应时间(平均)

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 5.02s 216 1,466
Z.ai: GLM 5 4.0 10.0 33.3% 0 3.39s 272 0
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 20.57s 301 3,543
Z.ai: GLM 5 10.0 10.0 0.0% 0 4.98s 406 0
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 5.32s 234 804
Z.ai: GLM 5 9.9 10.0 100.0% 0 5.78s 203 0
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 74.27s 61 34,748
Z.ai: GLM 5 10.0 10.0 0.0% 0 2.24s 19 0
通用智能 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 5.0 3.1 33.3% 1 4.92s 145 321
Z.ai: GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 3.11s 93 897
Z.ai: GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 7.0 7.2 88.9% 1 9.13s 442 3,832
Z.ai: GLM 5 7.0 10.0 66.7% 0 2.05s 264 0
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 13.28s 264 1,031
Z.ai: GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

快速对比

切换对比组合