Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Tests corrects ↑.
Modèles affichés
15
Moyenne de Score Spécifique au domaine
4.8
Meilleur modèle
Qwen3.6 Plus Preview 3.0| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #34 | Kimi K2.6 medium | Moonshot AI | 5.3 | 7.7 | 1/3 | 202.4s |
| #38 | GPT-5.4 Nano medium | OpenAI | 5.9 | 7.6 | 1/3 | 38.2s |
| #40 | GPT-5.2 medium | OpenAI | 5.9 | 7.5 | 1/3 | 77.8s |
| #41 | MiMo-V2-Flash medium | Xiaomi | 5.9 | 7.5 | 1/3 | 96.0s |
| #47 | Grok 4.20 medium | X AI | 5.3 | 7.0 | 1/3 | 27.0s |
| #49 | Qwen3.5 Plus 2026-02-15 none | Qwen | 5.3 | 6.8 | 1/3 | 1.17s |
| #52 | Grok 4.1 Fast medium | X AI | 5.8 | 6.7 | 1/3 | 121.8s |
| #55 | MiMo-V2-Omni none | Xiaomi | 5.3 | 6.5 | 1/3 | 1.14s |
| #57 | GPT-5 Nano medium | OpenAI | 5.2 | 6.3 | 1/3 | 204.0s |
| #58 | GLM 5V Turbo none | Z.ai | 5.3 | 6.2 | 1/3 | 2.09s |
| #62 | Gemini 2.5 Flash none | 5.9 | 6.2 | 1/3 | 495ms | |
| #65 | MiMo-V2-Pro none | Xiaomi | 5.3 | 6.0 | 1/3 | 1.78s |
| #66 | GPT-5.4 none | OpenAI | 5.3 | 5.9 | 1/3 | 1.07s |
| #69 | Kimi K2.6 none | Moonshot AI | 5.3 | 5.8 | 1/3 | 1.48s |
| #70 | Qwen3.5-122B-A10B none | Qwen | 5.3 | 5.7 | 1/3 | 465ms |