Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↓.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #75 | GLM 5.1 none | Z.ai | 2.9 | 5.6 | 0/3 | 1.99s |
| #77 | GLM 5 Turbo none | Z.ai | 5.3 | 5.5 | 1/3 | 1.97s |
| #65 | MiMo-V2-Pro none | Xiaomi | 5.3 | 6.0 | 1/3 | 1.78s |
| #64 | DeepSeek V3.2 none | DeepSeek | 3.6 | 6.1 | 0/3 | 1.61s |
| #69 | Kimi K2.6 none | Moonshot AI | 5.3 | 5.8 | 1/3 | 1.48s |
| #61 | Seed-2.0-Lite none | Bytedance Seed | 3.6 | 6.2 | 0/3 | 1.33s |
| #4 | Claude Opus 4.7 none | Anthropic | 7.7 | 9.2 | 2/3 | 1.19s |
| #3 | Claude Opus 4.7 medium | Anthropic | 7.7 | 9.2 | 2/3 | 1.17s |
| #49 | Qwen3.5 Plus 2026-02-15 none | Qwen | 5.3 | 6.8 | 1/3 | 1.17s |
| #55 | MiMo-V2-Omni none | Xiaomi | 5.3 | 6.5 | 1/3 | 1.14s |
| #66 | GPT-5.4 none | OpenAI | 5.3 | 5.9 | 1/3 | 1.07s |
| #95 | Grok 4.1 Fast none | X AI | 5.9 | 4.5 | 1/3 | 1.06s |
| #21 | Gemini 3 Flash Preview none | 7.7 | 8.1 | 2/3 | 963ms | |
| #87 | Qwen3 Coder Next none | Qwen | 5.3 | 5.1 | 1/3 | 962ms |
| #29 | Gemini 3.1 Flash Lite Preview none | 5.3 | 7.9 | 1/3 | 942ms |