AI BENCHY
Your ad here

AI BENCHY 分类

指令遵循 排名

看看哪些 AI 模型在 指令遵循 上表现最好,哪些更稳定,以及差距主要出现在哪里。 排序方式: 测试正确 ↓.

显示的模型数

15

指令遵循 得分 平均值

8.0

排名 模型 公司 指令遵循 得分 分数 测试正确 响应时间(平均)
#17 Gemini 3.1 Flash Lite Preview medium Google 10.0 8.2 2/2 1.91s
#18 GLM 5 Turbo medium Z.ai 10.0 8.1 2/2 5.38s
#19 Qwen3.5-122B-A10B medium Qwen 10.0 8.1 2/2 9.88s
#20 Qwen3.6 Plus medium Qwen 10.0 8.1 2/2 7.54s
#22 Gemini 3.1 Flash Lite Preview low Google 10.0 8.1 2/2 1.49s
#23 MiMo-V2-Pro medium Xiaomi 9.9 8.1 2/2 3.36s
#24 Gemma 4 26B A4B medium Google 10.0 8.0 2/2 17.5s
#26 Claude Sonnet 4.6 medium Anthropic 10.0 8.0 2/2 2.61s
#27 DeepSeek V3.2 medium DeepSeek 10.0 8.0 2/2 35.8s
#29 Gemini 3.1 Flash Lite Preview none Google 10.0 7.9 2/2 1.13s
#31 GLM 5V Turbo medium Z.ai 9.9 7.8 2/2 3.74s
#32 Qwen3.5-Flash medium Qwen 10.0 7.8 2/2 63.5s
#34 Kimi K2.6 medium Moonshot AI 10.0 7.7 2/2 12.5s
#37 Claude Opus 4.6 medium Anthropic 10.0 7.6 2/2 2.43s
#38 GPT-5.4 Nano medium OpenAI 9.8 7.6 2/2 1.88s

按 指令遵循 得分 排名的顶级模型

指令遵循 得分 vs 总成本

按 响应时间(平均) 排名的顶级模型