Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↑.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #3 | Claude Opus 4.7 medium | Anthropic | 7.7 | 9.2 | 2/3 | 1.17s |
| #4 | Claude Opus 4.7 none | Anthropic | 7.7 | 9.2 | 2/3 | 1.19s |
| #61 | Seed-2.0-Lite none | Bytedance Seed | 3.6 | 6.2 | 0/3 | 1.33s |
| #69 | Kimi K2.6 none | Moonshot AI | 5.3 | 5.8 | 1/3 | 1.48s |
| #64 | DeepSeek V3.2 none | DeepSeek | 3.6 | 6.1 | 0/3 | 1.61s |
| #65 | MiMo-V2-Pro none | Xiaomi | 5.3 | 6.0 | 1/3 | 1.78s |
| #77 | GLM 5 Turbo none | Z.ai | 5.3 | 5.5 | 1/3 | 1.97s |
| #75 | GLM 5.1 none | Z.ai | 2.9 | 5.6 | 0/3 | 1.99s |
| #58 | GLM 5V Turbo none | Z.ai | 5.3 | 6.2 | 1/3 | 2.09s |
| #53 | GLM 5 none | Z.ai | 3.0 | 6.6 | 0/3 | 2.24s |
| #72 | Hunter Alpha none | OpenRouter | 5.3 | 5.7 | 1/3 | 2.33s |
| #22 | Gemini 3.1 Flash Lite Preview low | 5.3 | 8.1 | 1/3 | 2.36s | |
| #60 | Gemma 4 26B A4B none | 3.6 | 6.2 | 0/3 | 2.49s | |
| #48 | Gemma 4 31B none | 7.7 | 6.9 | 2/3 | 3.22s | |
| #42 | Claude Sonnet 4.6 none | Anthropic | 7.7 | 7.4 | 2/3 | 3.54s |