AI BENCHY
Your ad here

AI BENCHY 分类

指令遵循 排名

看看哪些 AI 模型在 指令遵循 上表现最好,哪些更稳定,以及差距主要出现在哪里。 排序方式: 测试正确 ↓.

显示的模型数

15

指令遵循 得分 平均值

8.0

排名 模型 公司 指令遵循 得分 分数 测试正确 响应时间(平均)
#56 Grok 4.20 Multi Agent Beta medium X AI 8.3 6.4 1/2 4.63s
#57 GPT-5 Nano medium OpenAI 8.5 6.3 1/2 11.9s
#58 GLM 5V Turbo none Z.ai 6.5 6.2 1/2 1.97s
#59 Qwen3.5-Flash none Qwen 6.3 6.2 1/2 8.81s
#62 Gemini 2.5 Flash none Google 8.0 6.2 1/2 672ms
#63 Qwen3.5-35B-A3B none Qwen 6.3 6.1 1/2 809ms
#65 MiMo-V2-Pro none Xiaomi 6.5 6.0 1/2 2.51s
#66 GPT-5.4 none OpenAI 6.5 5.9 1/2 1.07s
#69 Kimi K2.6 none Moonshot AI 6.5 5.8 1/2 1.64s
#71 MiniMax M2.5 medium Minimax 8.1 5.7 1/2 4.64s
#72 Hunter Alpha none OpenRouter 6.4 5.7 1/2 2.82s
#73 Mistral Small 4 medium Mistral 7.3 5.7 1/2 1.38s
#74 GLM 4.7 Flash none Z.ai 6.5 5.6 1/2 888ms
#75 GLM 5.1 none Z.ai 8.3 5.6 1/2 1.58s
#76 Kimi K2.5 none Moonshot AI 6.5 5.5 1/2 2.67s

按 指令遵循 得分 排名的顶级模型

指令遵循 得分 vs 总成本

按 响应时间(平均) 排名的顶级模型