فئة AI BENCHY
ترتيب خاص بالمجال
اكتشف أي نماذج الذكاء الاصطناعي تؤدي أفضل في خاص بالمجال، وأيها يظل أكثر اعتمادية، وأين تظهر أكبر الفجوات. الترتيب حسب: اختبارات صحيحة ↑.
| الترتيب | النموذج | الشركة | درجة خاص بالمجال | النتيجة | اختبارات صحيحة | زمن الاستجابة (المتوسط) |
|---|---|---|---|---|---|---|
| #72 | Hunter Alpha none | OpenRouter | 5.3 | 5.7 | 1/3 | 2.33s |
| #73 | Mistral Small 4 medium | Mistral | 5.3 | 5.7 | 1/3 | 6.11s |
| #76 | Kimi K2.5 none | Moonshot AI | 5.3 | 5.5 | 1/3 | 4.38s |
| #77 | GLM 5 Turbo none | Z.ai | 5.3 | 5.5 | 1/3 | 1.97s |
| #78 | Trinity Large Preview none | Arcee AI | 5.3 | 5.3 | 1/3 | 877ms |
| #83 | Mistral Small 4 none | Mistral | 5.3 | 5.2 | 1/3 | 367ms |
| #87 | Qwen3 Coder Next none | Qwen | 5.3 | 5.1 | 1/3 | 962ms |
| #91 | Mercury 2 none | Inception | 5.3 | 4.8 | 1/3 | 534ms |
| #92 | Qwen3 Coder Next medium | Qwen | 5.3 | 4.7 | 1/3 | 638ms |
| #94 | MiMo-V2-Flash none | Xiaomi | 5.3 | 4.5 | 1/3 | 564ms |
| #95 | Grok 4.1 Fast none | X AI | 5.9 | 4.5 | 1/3 | 1.06s |
| #98 | LFM2-24B-A2B none | Liquid | 5.9 | 4.1 | 1/3 | 287ms |
| #2 | Gemini 3.1 Pro Preview medium | 7.7 | 9.6 | 2/3 | 32.7s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 7.7 | 9.2 | 2/3 | 1.17s |
| #4 | Claude Opus 4.7 none | Anthropic | 7.7 | 9.2 | 2/3 | 1.19s |