Catégorie AI BENCHY
Classement Spécifique au domaine
Voyez quels modèles d'IA réussissent le mieux sur Spécifique au domaine, lesquels restent fiables et où les écarts sont les plus marqués. Trier par: Temps de réponse (moy.) ↑.
| Rang | Modèle | Entreprise | Score Spécifique au domaine | Score | Tests corrects | Temps de réponse (moy.) |
|---|---|---|---|---|---|---|
| #68 | gpt-oss-120b medium | OpenAI | 2.9 | 5.8 | 0/3 | 50.9s |
| #35 | MiMo-V2-Omni medium | Xiaomi | 3.0 | 7.7 | 0/3 | 55.1s |
| #19 | Qwen3.5-122B-A10B medium | Qwen | 2.9 | 8.1 | 0/3 | 63.4s |
| #7 | GPT-5.3-Codex medium | OpenAI | 5.9 | 8.6 | 1/3 | 64.3s |
| #44 | GPT-5.4 Mini medium | OpenAI | 4.1 | 7.3 | 0/3 | 65.3s |
| #18 | GLM 5 Turbo medium | Z.ai | 2.9 | 8.1 | 0/3 | 71.1s |
| #16 | GPT-5.4 medium | OpenAI | 5.3 | 8.2 | 1/3 | 74.3s |
| #40 | GPT-5.2 medium | OpenAI | 5.9 | 7.5 | 1/3 | 77.8s |
| #10 | Qwen3.5-27B medium | Qwen | 5.3 | 8.4 | 1/3 | 79.5s |
| #37 | Claude Opus 4.6 medium | Anthropic | 3.0 | 7.6 | 0/3 | 83.4s |
| #43 | Qwen3.5-35B-A3B medium | Qwen | 4.1 | 7.4 | 0/3 | 88.3s |
| #6 | Seed-2.0-Lite medium | Bytedance Seed | 5.9 | 8.6 | 1/3 | 88.7s |
| #41 | MiMo-V2-Flash medium | Xiaomi | 5.9 | 7.5 | 1/3 | 96.0s |
| #52 | Grok 4.1 Fast medium | X AI | 5.8 | 6.7 | 1/3 | 121.8s |
| #11 | Gemini 3.1 Flash Lite Preview high | 5.3 | 8.4 | 1/3 | 127.6s |