Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↑.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #25 | Grok 4.20 Beta medium | X AI | 5.3 | 8.0 | 1/3 | 21.3s |
| #9 | Qwen3.6 Plus Preview medium | Qwen | 3.0 | 8.5 | 0/3 | 22.1s |
| #24 | Gemma 4 26B A4B medium | 2.9 | 8.0 | 0/3 | 23.6s | |
| #56 | Grok 4.20 Multi Agent Beta medium | X AI | 2.9 | 6.4 | 0/3 | 24.7s |
| #47 | Grok 4.20 medium | X AI | 5.3 | 7.0 | 1/3 | 27.0s |
| #20 | Qwen3.6 Plus medium | Qwen | 2.9 | 8.1 | 0/3 | 29.6s |
| #33 | GLM 5.1 medium | Z.ai | 5.3 | 7.8 | 1/3 | 29.8s |
| #2 | Gemini 3.1 Pro Preview medium | 7.7 | 9.6 | 2/3 | 32.7s | |
| #84 | gpt-oss-120b none | OpenAI | 3.0 | 5.2 | 0/3 | 35.0s |
| #15 | Gemini 2.5 Flash medium | 5.9 | 8.2 | 1/3 | 37.3s | |
| #31 | GLM 5V Turbo medium | Z.ai | 5.3 | 7.8 | 1/3 | 38.1s |
| #38 | GPT-5.4 Nano medium | OpenAI | 5.9 | 7.6 | 1/3 | 38.2s |
| #14 | Gemma 4 31B medium | 7.7 | 8.3 | 2/3 | 38.5s | |
| #27 | DeepSeek V3.2 medium | DeepSeek | 5.3 | 8.0 | 1/3 | 39.3s |
| #45 | GPT-5 Mini medium | OpenAI | 3.6 | 7.0 | 0/3 | 44.6s |