Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↓.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #40 | GPT-5.2 medium | OpenAI | 5.9 | 7.5 | 1/3 | 77.8s |
| #16 | GPT-5.4 medium | OpenAI | 5.3 | 8.2 | 1/3 | 74.3s |
| #18 | GLM 5 Turbo medium | Z.ai | 2.9 | 8.1 | 0/3 | 71.1s |
| #44 | GPT-5.4 Mini medium | OpenAI | 4.1 | 7.3 | 0/3 | 65.3s |
| #7 | GPT-5.3-Codex medium | OpenAI | 5.9 | 8.6 | 1/3 | 64.3s |
| #19 | Qwen3.5-122B-A10B medium | Qwen | 2.9 | 8.1 | 0/3 | 63.4s |
| #35 | MiMo-V2-Omni medium | Xiaomi | 3.0 | 7.7 | 0/3 | 55.1s |
| #68 | gpt-oss-120b medium | OpenAI | 2.9 | 5.8 | 0/3 | 50.9s |
| #45 | GPT-5 Mini medium | OpenAI | 3.6 | 7.0 | 0/3 | 44.6s |
| #27 | DeepSeek V3.2 medium | DeepSeek | 5.3 | 8.0 | 1/3 | 39.3s |
| #14 | Gemma 4 31B medium | 7.7 | 8.3 | 2/3 | 38.5s | |
| #38 | GPT-5.4 Nano medium | OpenAI | 5.9 | 7.6 | 1/3 | 38.2s |
| #31 | GLM 5V Turbo medium | Z.ai | 5.3 | 7.8 | 1/3 | 38.1s |
| #15 | Gemini 2.5 Flash medium | 5.9 | 8.2 | 1/3 | 37.3s | |
| #84 | gpt-oss-120b none | OpenAI | 3.0 | 5.2 | 0/3 | 35.0s |