导航
AI BENCHY
比较 图表 方法论
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY 对比

Anthropic: Claude Opus 4.6 vs Google: Gemini 3.1 Flash Lite Preview

比较:

基准结果生成自 AI BENCHY 测试套件,时间:: 2026-03-06

指标 Anthropic: Claude Opus 4.6 medium 发布日期: 2026-02-05 Google: Gemini 3.1 Flash Lite Preview low 发布日期: 2026-03-03
平均分 6.4 7.6
排名 #31 #13
测试正确
一致性 8.9 10.0
每个结果成本 14.411 0.170
总成本 $1.297 $0.019
尝试通过率 64.4% 73.3%
不稳定测试 2 0
common.totalRuns 45 (15 x 3) 45 (15 x 3)
输出令牌 26,066 1,542
推理令牌 17,071 6,888
响应时间(平均) 25.08s 3.49s
响应时间(最大) 83.40s 11.91s
响应时间(总计) 200.67s 52.29s

按分数排名的模型

分数 vs 总成本

响应时间(平均)

平均分 vs 响应时间(平均)

类别细分

反AI技巧 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 4.0 4.4 55.6% 2 11.88s 897 1,000
Google: Gemini 3.1 Flash Lite Preview 7.0 10.0 66.7% 0 2.18s 456 1,224
综合 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 0.0% 0 11.91s 225 762
数据解析与提取 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 9.9 10.0 100.0% 0 7.37s 691 757
Google: Gemini 3.1 Flash Lite Preview 9.9 10.0 100.0% 0 3.00s 291 696
领域专项 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 10.0 10.0 0.0% 0 83.40s 14,642 8,687
Google: Gemini 3.1 Flash Lite Preview 4.0 10.0 33.3% 0 2.36s 18 1,212
指令遵循 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 100.0% 0 1.49s 72 753
Puzzle Solving 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 7.0 10.0 66.7% 0 4.60s 531 637
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 100.0% 0 2.76s 243 1,248
工具调用 分数 一致性 尝试通过率 不稳定测试 测试正确 响应时间(平均) 输出令牌 推理令牌
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 100.0% 0 9.54s 237 993

快速对比

切换对比组合