AI BENCHY 对比
OpenAI: GPT-5.3 Chat vs Z.ai: GLM 5
基准结果生成自 AI BENCHY 测试套件,时间:: 2026-04-16
| 指标 | GPT-5.3 Chat GPT-5.3 Chat none | GLM 5 GLM 5 medium |
|---|---|---|
| 分数 | 7.7 | 8.4 |
| 排名 | #35 | #13 |
| 一致性 | 8.6 | 8.2 |
| 测试正确 | ||
| 尝试通过率 | 68.5% | 85.2% |
| 不稳定测试 | 3 | 4 |
| 总运行次数 | 54 | 54 |
| 每个结果成本 | 3.082 | 1.188 |
| 总成本 | $0.340 | $0.155 |
| ???? | $1.750 / 1M | $0.720 / 1M |
| ???? | $14.000 / 1M | $2.300 / 1M |
| 输出令牌 | 20,784 | 20,163 |
| 推理令牌 | 0 | 58,337 |
| 响应时间(平均) | 5.88s | 23.34s |
| 响应时间(最大) | 18.33s | 79.09s |
| 响应时间(总计) | 105.90s | 233.40s |
分数 vs 总成本
响应时间(平均)
分数 vs 响应时间(平均)
总输出令牌
分数 vs 总输出令牌
类别细分
| 反AI技巧 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 6.7 | 8.1 | 58.3% | 1 | 3.86s | 3,167 | 0 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 23.66s | 480 | 7,056 |
| 编程 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 10.0 | 10.0 | 100.0% | 0 | 9.32s | 1,436 | 0 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 79.09s | 330 | 19,814 |
| 综合 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 10.0 | 10.0 | 100.0% | 0 | 11.96s | 2,614 | 0 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 28.96s | 662 | 3,242 |
| 数据解析与提取 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 10.0 | 10.0 | 100.0% | 0 | 2.21s | 942 | 0 | |
| GLM 5 | 7.1 | 5.6 | 83.3% | 1 | 8.90s | 567 | 3,734 |
| 领域专项 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 3.5 | 4.4 | 33.3% | 2 | 13.01s | 8,264 | 0 | |
| GLM 5 | 3.5 | 4.4 | 33.3% | 2 | 0ms | 13,176 | 14,137 |
| 通用智能 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 4.6 | 10.0 | 0.0% | 0 | 1.99s | 319 | 0 | |
| GLM 5 | 6.1 | 3.1 | 66.7% | 1 | 14.69s | 2,020 | 2,248 |
| 指令遵循 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 8.3 | 10.0 | 50.0% | 0 | 3.29s | 1,455 | 0 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 7.25s | 1,001 | 2,129 |
| 谜题求解 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 10.0 | 10.0 | 100.0% | 0 | 2.93s | 1,726 | 0 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 15.64s | 1,694 | 4,983 |
| 工具调用 | 分数 | 一致性 | 尝试通过率 | 不稳定测试 | 测试正确 | 响应时间(平均) | 输出令牌 | 推理令牌 |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3 Chat | 10.0 | 10.0 | 100.0% | 0 | 8.36s | 861 | 0 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 15.93s | 233 | 994 |
快速对比
切换对比组合
Claude Opus 4.6mediumvsGPT-5.3 ChatnoneGPT-5.3 ChatnonevsMiMo-V2-OmnimediumGPT-5.3 ChatnonevsGLM 5.1mediumSeed-2.0-MinimediumvsGPT-5.3 ChatnoneGPT-5.3 ChatnonevsQwen3.5-FlashmediumGPT-5.3 ChatnonevsGLM 5V TurbomediumGPT-5.3 ChatnonevsMiMo-V2-FlashmediumGPT-5.3 ChatnonevsStep 3.5 FlashmediumGPT-5.3 ChatnonevsQwen3.5-35B-A3BmediumGemini 3 Flash PreviewnonevsGLM 5mediumGemini 3.1 Flash Lite PreviewlowvsGLM 5mediumDeepSeek V3.2mediumvsGPT-5.3 Chatnone