导航
AI BENCHY
Your ad here

AI BENCHY 对比

Mistral: Mistral Small 4 vs Hunter Alpha

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-17

指标 Mistral Small 4 Mistral Small 4 none 发布日期: 2026-03-16 Hunter Alpha Hunter Alpha medium 发布日期: 发布日期未知
排名 #61 #35
分数 5.3 7.0
一致性 9.5 7.2
每个结果成本 0.108 0.000
总成本 $0.006 $0.000
测试正确
尝试通过率 33.3% 68.6%
不稳定测试 1 6
总运行次数 51 51
输出令牌 1,624 4,724
推理令牌 0 17,921
响应时间(平均) 629ms 10.33s
响应时间(最大) 1.72s 30.53s
响应时间(总计) 10.70s 175.60s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

分数 vs 响应时间(平均)

总输出令牌

分数 vs 总输出令牌

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 3.4 7.9 16.7% 1 395ms 182 0
Hunter Alpha 7.3 5.8 83.3% 2 4.75s 479 1,103
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 3.0 10.0 0.0% 0 1.72s 496 0
Hunter Alpha 4.7 1.6 66.7% 1 30.53s 792 3,456
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 10.0 10.0 100.0% 0 822ms 261 0
Hunter Alpha 10.0 10.0 100.0% 0 23.16s 1,488 8,017
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 5.3 10.0 33.3% 0 367ms 28 0
Hunter Alpha 3.0 10.0 0.0% 0 10.52s 892 2,406
通用智能 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 4.0 10.0 0.0% 0 729ms 205 0
Hunter Alpha 7.0 3.7 66.7% 1 6.44s 116 260
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 6.5 10.0 50.0% 0 380ms 69 0
Hunter Alpha 9.9 10.0 100.0% 0 4.18s 208 465
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 3.1 9.9 0.0% 0 589ms 170 0
Hunter Alpha 6.1 4.7 66.7% 2 5.36s 441 1,310
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Mistral Small 4 10.0 10.0 100.0% 0 1.40s 213 0
Hunter Alpha 10.0 10.0 100.0% 0 17.33s 308 904

快速对比

切换对比组合