فئة AI BENCHY
ترتيب مجمّع
اكتشف أي نماذج الذكاء الاصطناعي تؤدي أفضل في مجمّع، وأيها يظل أكثر اعتمادية، وأين تظهر أكبر الفجوات. الترتيب حسب: زمن الاستجابة (المتوسط) ↓.
| الترتيب | النموذج | الشركة | درجة مجمّع | النتيجة | اختبارات صحيحة | زمن الاستجابة (المتوسط) |
|---|---|---|---|---|---|---|
| #11 | Gemini 3.1 Flash Lite Preview high | 10.0 | 8.4 | 1/1 | 280.5s | |
| #39 | Seed-2.0-Mini medium | Bytedance Seed | 10.0 | 7.5 | 1/1 | 262.8s |
| #10 | Qwen3.5-27B medium | Qwen | 10.0 | 8.4 | 1/1 | 164.0s |
| #64 | DeepSeek V3.2 none | DeepSeek | 6.5 | 6.1 | 0/1 | 115.9s |
| #19 | Qwen3.5-122B-A10B medium | Qwen | 10.0 | 8.1 | 1/1 | 107.8s |
| #27 | DeepSeek V3.2 medium | DeepSeek | 10.0 | 8.0 | 1/1 | 93.1s |
| #45 | GPT-5 Mini medium | OpenAI | 10.0 | 7.0 | 1/1 | 88.2s |
| #51 | Nemotron 3 Super medium | NVIDIA | 10.0 | 6.7 | 1/1 | 87.8s |
| #37 | Claude Opus 4.6 medium | Anthropic | 10.0 | 7.6 | 1/1 | 76.7s |
| #41 | MiMo-V2-Flash medium | Xiaomi | 9.8 | 7.5 | 1/1 | 75.7s |
| #43 | Qwen3.5-35B-A3B medium | Qwen | 4.7 | 7.4 | 0/1 | 75.3s |
| #24 | Gemma 4 26B A4B medium | 9.6 | 8.0 | 1/1 | 73.5s | |
| #46 | Kimi K2.5 medium | Moonshot AI | 10.0 | 7.0 | 1/1 | 71.4s |
| #57 | GPT-5 Nano medium | OpenAI | 10.0 | 6.3 | 1/1 | 66.0s |
| #93 | GLM 4.7 Flash medium | Z.ai | 2.8 | 4.6 | 0/1 | 65.6s |