Catégorie AI BENCHY
Classement Résolution d'énigmes
Voyez quels modèles d'IA réussissent le mieux sur Résolution d'énigmes, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↓.
| Rang | Modèle | Entreprise | Score Résolution d'énigmes | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #66 | GPT-5.4 none | OpenAI | 5.6 | 5.9 | 1/3 | 1.52s |
| #75 | GLM 5.1 none | Z.ai | 5.7 | 5.6 | 1/3 | 1.48s |
| #94 | MiMo-V2-Flash none | Xiaomi | 3.6 | 4.5 | 0/3 | 1.38s |
| #67 | Qwen3.5-27B none | Qwen | 6.7 | 5.9 | 1/3 | 1.37s |
| #63 | Qwen3.5-35B-A3B none | Qwen | 3.9 | 6.1 | 0/3 | 1.34s |
| #89 | GPT-4o-mini none | OpenAI | 3.7 | 4.9 | 0/3 | 1.30s |
| #96 | GPT-5.4 Nano none | OpenAI | 3.7 | 4.5 | 0/3 | 1.29s |
| #95 | Grok 4.1 Fast none | X AI | 3.2 | 4.5 | 0/3 | 1.28s |
| #21 | Gemini 3 Flash Preview none | 7.7 | 8.1 | 2/3 | 1.06s | |
| #74 | GLM 4.7 Flash none | Z.ai | 4.4 | 5.6 | 0/3 | 1.00s |
| #70 | Qwen3.5-122B-A10B none | Qwen | 5.4 | 5.7 | 1/3 | 982ms |
| #29 | Gemini 3.1 Flash Lite Preview none | 10.0 | 7.9 | 3/3 | 972ms | |
| #54 | Mercury 2 medium | Inception | 3.9 | 6.5 | 0/3 | 934ms |
| #81 | Elephant medium | Openrouter | 3.7 | 5.2 | 0/3 | 867ms |
| #86 | GPT-5.4 Mini none | OpenAI | 5.4 | 5.1 | 1/3 | 860ms |