Catégorie AI BENCHY
Classement Suivi des instructions
Voyez quels modèles d'IA réussissent le mieux sur Suivi des instructions, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Tests corrects ↑.
| Rang | Modèle | Entreprise | Score Suivi des instructions | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #77 | GLM 5 Turbo none | Z.ai | 6.5 | 5.5 | 1/2 | 2.13s |
| #83 | Mistral Small 4 none | Mistral | 6.5 | 5.2 | 1/2 | 380ms |
| #84 | gpt-oss-120b none | OpenAI | 8.4 | 5.2 | 1/2 | 5.10s |
| #86 | GPT-5.4 Mini none | OpenAI | 6.3 | 5.1 | 1/2 | 728ms |
| #90 | Qwen3.5-9B none | Qwen | 6.5 | 4.8 | 1/2 | 514ms |
| #91 | Mercury 2 none | Inception | 6.5 | 4.8 | 1/2 | 551ms |
| #93 | GLM 4.7 Flash medium | Z.ai | 6.2 | 4.6 | 1/2 | 2.97s |
| #94 | MiMo-V2-Flash none | Xiaomi | 6.5 | 4.5 | 1/2 | 857ms |
| #97 | Qwen3.5-9B medium | Qwen | 6.4 | 4.4 | 1/2 | 17.1s |
| #1 | Gemini 3 Flash Preview medium | 10.0 | 10.0 | 2/2 | 6.10s | |
| #2 | Gemini 3.1 Pro Preview medium | 10.0 | 9.6 | 2/2 | 9.56s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 10.0 | 9.2 | 2/2 | 1.57s |
| #4 | Claude Opus 4.7 none | Anthropic | 10.0 | 9.2 | 2/2 | 1.46s |
| #5 | Gemini 3 Flash Preview low | 9.9 | 8.8 | 2/2 | 7.02s | |
| #6 | Seed-2.0-Lite medium | Bytedance Seed | 10.0 | 8.6 | 2/2 | 7.26s |