AI BENCHY 分类
指令遵循 排名
看看哪些 AI 模型在 指令遵循 上表现最好,哪些更稳定,以及差距主要出现在哪里。 排序方式: 测试正确 ↑.
| 排名 | 模型 | 公司 | 指令遵循 得分 | 分数 | 测试正确 | 响应时间(平均) |
|---|---|---|---|---|---|---|
| #77 | GLM 5 Turbo none | Z.ai | 6.5 | 5.5 | 1/2 | 2.13s |
| #83 | Mistral Small 4 none | Mistral | 6.5 | 5.2 | 1/2 | 380ms |
| #84 | gpt-oss-120b none | OpenAI | 8.4 | 5.2 | 1/2 | 5.10s |
| #86 | GPT-5.4 Mini none | OpenAI | 6.3 | 5.1 | 1/2 | 728ms |
| #90 | Qwen3.5-9B none | Qwen | 6.5 | 4.8 | 1/2 | 514ms |
| #91 | Mercury 2 none | Inception | 6.5 | 4.8 | 1/2 | 551ms |
| #93 | GLM 4.7 Flash medium | Z.ai | 6.2 | 4.6 | 1/2 | 2.97s |
| #94 | MiMo-V2-Flash none | Xiaomi | 6.5 | 4.5 | 1/2 | 857ms |
| #97 | Qwen3.5-9B medium | Qwen | 6.4 | 4.4 | 1/2 | 17.1s |
| #1 | Gemini 3 Flash Preview medium | 10.0 | 10.0 | 2/2 | 6.10s | |
| #2 | Gemini 3.1 Pro Preview medium | 10.0 | 9.6 | 2/2 | 9.56s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 10.0 | 9.2 | 2/2 | 1.57s |
| #4 | Claude Opus 4.7 none | Anthropic | 10.0 | 9.2 | 2/2 | 1.46s |
| #5 | Gemini 3 Flash Preview low | 9.9 | 8.8 | 2/2 | 7.02s | |
| #6 | Seed-2.0-Lite medium | Bytedance Seed | 10.0 | 8.6 | 2/2 | 7.26s |