导航
AI BENCHY
比较 图表 方法论
❤️ Made by XCS
Your ad here

AI BENCHY 对比

StepFun: Step 3.5 Flash vs Z.ai: GLM 5

比较:

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-06

指标 StepFun: Step 3.5 Flash medium 发布日期: 2026-02-01 免费可用 Z.ai: GLM 5 none 发布日期: 2026-02-12
排名 #13 #31
平均分 7.4 6.0
一致性 9.1 10.0
每个结果成本 0.000 0.200
总成本 $0.000 $0.018
测试正确
尝试通过率 68.8% 56.3%
不稳定测试 2 0
总运行次数 48 48
输出令牌 71,452 1,548
推理令牌 155,147 0
响应时间(平均) 29.10s 4.03s
响应时间(最大) 170.45s 11.07s
响应时间(总计) 290.96s 36.30s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

平均分 vs 响应时间(平均)

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 10.0 10.0 100.0% 0 18.54s 13,924 17,208
Z.ai: GLM 5 4.0 10.0 33.3% 0 3.39s 272 0
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 10.0 10.0 100.0% 0 29.57s 1,176 12,984
Z.ai: GLM 5 10.0 10.0 0.0% 0 4.98s 406 0
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 10.0 10.0 100.0% 0 15.01s 600 13,886
Z.ai: GLM 5 9.9 10.0 100.0% 0 5.78s 203 0
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 4.0 7.2 44.4% 1 170.45s 45,350 90,436
Z.ai: GLM 5 10.0 10.0 0.0% 0 2.24s 19 0
通用智能 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 6.0 10.0 0.0% 0 6.54s 2,214 2,584
Z.ai: GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 9.0 6.8 83.3% 1 4.98s 2,284 3,412
Z.ai: GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 4.0 10.0 33.3% 0 7.72s 5,629 10,835
Z.ai: GLM 5 7.0 10.0 66.7% 0 2.05s 264 0
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
StepFun: Step 3.5 Flash 10.0 10.0 100.0% 0 11.91s 275 3,802
Z.ai: GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

快速对比

切换对比组合