Catégorie AI BENCHY
Classement Combiné
Voyez quels modèles d'IA réussissent le mieux sur Combiné, lesquels restent fiables et où les écarts sont les plus marqués.
| Rang | Modèle | Entreprise | Score Combiné | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #78 | Trinity Large Preview none | Arcee AI | 3.0 | 5.3 | 0/1 | 8.91s |
| #79 | Grok 4.20 Beta none | X AI | 3.0 | 5.3 | 0/1 | 6.48s |
| #81 | Elephant medium | Openrouter | 3.0 | 5.2 | 0/1 | 3.70s |
| #82 | Grok 4.20 none | X AI | 3.0 | 5.2 | 0/1 | 6.04s |
| #83 | Mistral Small 4 none | Mistral | 3.0 | 5.2 | 0/1 | 1.72s |
| #84 | gpt-oss-120b none | OpenAI | 3.0 | 5.2 | 0/1 | 0ms |
| #85 | Elephant none | Openrouter | 3.0 | 5.2 | 0/1 | 3.81s |
| #86 | GPT-5.4 Mini none | OpenAI | 3.0 | 5.1 | 0/1 | 2.52s |
| #87 | Qwen3 Coder Next none | Qwen | 3.0 | 5.1 | 0/1 | 45.1s |
| #88 | Nemotron 3 Super none | NVIDIA | 3.0 | 5.1 | 0/1 | 20.0s |
| #89 | GPT-4o-mini none | OpenAI | 3.0 | 4.9 | 0/1 | 7.58s |
| #90 | Qwen3.5-9B none | Qwen | 3.0 | 4.8 | 0/1 | 5.91s |
| #91 | Mercury 2 none | Inception | 3.0 | 4.8 | 0/1 | 606ms |
| #92 | Qwen3 Coder Next medium | Qwen | 3.0 | 4.7 | 0/1 | 4.28s |
| #94 | MiMo-V2-Flash none | Xiaomi | 3.0 | 4.5 | 0/1 | 2.87s |