Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Tests corrects ↑.
Modèles affichés
15
Moyenne de Score Spécifique au domaine
4.8
Meilleur modèle
Qwen3.6 Plus Preview 3.0| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #72 | Hunter Alpha none | OpenRouter | 5.3 | 5.7 | 1/3 | 2.33s |
| #73 | Mistral Small 4 medium | Mistral | 5.3 | 5.7 | 1/3 | 6.11s |
| #76 | Kimi K2.5 none | Moonshot AI | 5.3 | 5.5 | 1/3 | 4.38s |
| #77 | GLM 5 Turbo none | Z.ai | 5.3 | 5.5 | 1/3 | 1.97s |
| #78 | Trinity Large Preview none | Arcee AI | 5.3 | 5.3 | 1/3 | 877ms |
| #83 | Mistral Small 4 none | Mistral | 5.3 | 5.2 | 1/3 | 367ms |
| #87 | Qwen3 Coder Next none | Qwen | 5.3 | 5.1 | 1/3 | 962ms |
| #91 | Mercury 2 none | Inception | 5.3 | 4.8 | 1/3 | 534ms |
| #92 | Qwen3 Coder Next medium | Qwen | 5.3 | 4.7 | 1/3 | 638ms |
| #94 | MiMo-V2-Flash none | Xiaomi | 5.3 | 4.5 | 1/3 | 564ms |
| #95 | Grok 4.1 Fast none | X AI | 5.9 | 4.5 | 1/3 | 1.06s |
| #98 | LFM2-24B-A2B none | Liquid | 5.9 | 4.1 | 1/3 | 287ms |
| #2 | Gemini 3.1 Pro Preview medium | 7.7 | 9.6 | 2/3 | 32.7s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 7.7 | 9.2 | 2/3 | 1.17s |
| #4 | Claude Opus 4.7 none | Anthropic | 7.7 | 9.2 | 2/3 | 1.19s |