Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↑.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #82 | Grok 4.20 none | X AI | 3.0 | 5.2 | 0/3 | 687ms |
| #74 | GLM 4.7 Flash none | Z.ai | 7.7 | 5.6 | 2/3 | 744ms |
| #78 | Trinity Large Preview none | Arcee AI | 5.3 | 5.3 | 1/3 | 877ms |
| #59 | Qwen3.5-Flash none | Qwen | 7.7 | 6.2 | 2/3 | 905ms |
| #81 | Elephant medium | Openrouter | 3.0 | 5.2 | 0/3 | 925ms |
| #96 | GPT-5.4 Nano none | OpenAI | 2.9 | 4.5 | 0/3 | 926ms |
| #85 | Elephant none | Openrouter | 3.0 | 5.2 | 0/3 | 927ms |
| #86 | GPT-5.4 Mini none | OpenAI | 3.5 | 5.1 | 0/3 | 937ms |
| #29 | Gemini 3.1 Flash Lite Preview none | 5.3 | 7.9 | 1/3 | 942ms | |
| #87 | Qwen3 Coder Next none | Qwen | 5.3 | 5.1 | 1/3 | 962ms |
| #21 | Gemini 3 Flash Preview none | 7.7 | 8.1 | 2/3 | 963ms | |
| #95 | Grok 4.1 Fast none | X AI | 5.9 | 4.5 | 1/3 | 1.06s |
| #66 | GPT-5.4 none | OpenAI | 5.3 | 5.9 | 1/3 | 1.07s |
| #55 | MiMo-V2-Omni none | Xiaomi | 5.3 | 6.5 | 1/3 | 1.14s |
| #49 | Qwen3.5 Plus 2026-02-15 none | Qwen | 5.3 | 6.8 | 1/3 | 1.17s |