Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↑.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #13 | GLM 5 medium | Z.ai | 3.5 | 8.4 | 0/3 | 0ms |
| #26 | Claude Sonnet 4.6 medium | Anthropic | 2.9 | 8.0 | 0/3 | 0ms |
| #39 | Seed-2.0-Mini medium | Bytedance Seed | 3.0 | 7.5 | 0/3 | 0ms |
| #98 | LFM2-24B-A2B none | Liquid | 5.9 | 4.1 | 1/3 | 287ms |
| #83 | Mistral Small 4 none | Mistral | 5.3 | 5.2 | 1/3 | 367ms |
| #90 | Qwen3.5-9B none | Qwen | 3.0 | 4.8 | 0/3 | 464ms |
| #70 | Qwen3.5-122B-A10B none | Qwen | 5.3 | 5.7 | 1/3 | 465ms |
| #63 | Qwen3.5-35B-A3B none | Qwen | 7.7 | 6.1 | 2/3 | 485ms |
| #62 | Gemini 2.5 Flash none | 5.9 | 6.2 | 1/3 | 495ms | |
| #91 | Mercury 2 none | Inception | 5.3 | 4.8 | 1/3 | 534ms |
| #67 | Qwen3.5-27B none | Qwen | 3.0 | 5.9 | 0/3 | 540ms |
| #94 | MiMo-V2-Flash none | Xiaomi | 5.3 | 4.5 | 1/3 | 564ms |
| #79 | Grok 4.20 Beta none | X AI | 3.0 | 5.3 | 0/3 | 611ms |
| #89 | GPT-4o-mini none | OpenAI | 3.0 | 4.9 | 0/3 | 637ms |
| #92 | Qwen3 Coder Next medium | Qwen | 5.3 | 4.7 | 1/3 | 638ms |