Catégorie AI BENCHY
Classement Résolution d'énigmes
Voyez quels modèles d'IA réussissent le mieux sur Résolution d'énigmes, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Tests corrects ↑.
| Rang | Modèle | Entreprise | Score Résolution d'énigmes | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #85 | Elephant none | Openrouter | 3.3 | 5.2 | 0/3 | 849ms |
| #87 | Qwen3 Coder Next none | Qwen | 3.2 | 5.1 | 0/3 | 22.9s |
| #89 | GPT-4o-mini none | OpenAI | 3.7 | 4.9 | 0/3 | 1.30s |
| #90 | Qwen3.5-9B none | Qwen | 3.2 | 4.8 | 0/3 | 683ms |
| #91 | Mercury 2 none | Inception | 3.1 | 4.8 | 0/3 | 533ms |
| #92 | Qwen3 Coder Next medium | Qwen | 3.1 | 4.7 | 0/3 | 2.30s |
| #93 | GLM 4.7 Flash medium | Z.ai | 2.9 | 4.6 | 0/3 | 12.9s |
| #94 | MiMo-V2-Flash none | Xiaomi | 3.6 | 4.5 | 0/3 | 1.38s |
| #95 | Grok 4.1 Fast none | X AI | 3.2 | 4.5 | 0/3 | 1.28s |
| #96 | GPT-5.4 Nano none | OpenAI | 3.7 | 4.5 | 0/3 | 1.29s |
| #97 | Qwen3.5-9B medium | Qwen | 3.1 | 4.4 | 0/3 | 33.4s |
| #98 | LFM2-24B-A2B none | Liquid | 4.4 | 4.1 | 0/3 | 1.69s |
| #18 | GLM 5 Turbo medium | Z.ai | 7.3 | 8.1 | 1/3 | 5.44s |
| #23 | MiMo-V2-Pro medium | Xiaomi | 7.0 | 8.1 | 1/3 | 4.71s |
| #30 | Step 3.5 Flash medium | Stepfun | 5.3 | 7.9 | 1/3 | 7.72s |