فئة AI BENCHY
ترتيب استدعاء الأدوات
اكتشف أي نماذج الذكاء الاصطناعي تؤدي أفضل في استدعاء الأدوات، وأيها يظل أكثر اعتمادية، وأين تظهر أكبر الفجوات. الترتيب حسب: زمن الاستجابة (المتوسط) ↓.
| الترتيب | النموذج | الشركة | درجة استدعاء الأدوات | النتيجة | اختبارات صحيحة | زمن الاستجابة (المتوسط) |
|---|---|---|---|---|---|---|
| #40 | GPT-5.2 medium | OpenAI | 4.7 | 7.5 | 0/1 | 10.3s |
| #18 | GLM 5 Turbo medium | Z.ai | 10.0 | 8.1 | 1/1 | 9.84s |
| #37 | Claude Opus 4.6 medium | Anthropic | 10.0 | 7.6 | 1/1 | 9.73s |
| #44 | GPT-5.4 Mini medium | OpenAI | 4.7 | 7.3 | 0/1 | 9.62s |
| #22 | Gemini 3.1 Flash Lite Preview low | 10.0 | 8.1 | 1/1 | 9.54s | |
| #24 | Gemma 4 26B A4B medium | 10.0 | 8.0 | 1/1 | 9.01s | |
| #34 | Kimi K2.6 medium | Moonshot AI | 10.0 | 7.7 | 1/1 | 8.92s |
| #36 | GPT-5.3 Chat none | OpenAI | 10.0 | 7.7 | 1/1 | 8.36s |
| #77 | GLM 5 Turbo none | Z.ai | 10.0 | 5.5 | 1/1 | 8.21s |
| #23 | MiMo-V2-Pro medium | Xiaomi | 10.0 | 8.1 | 1/1 | 8.19s |
| #11 | Gemini 3.1 Flash Lite Preview high | 10.0 | 8.4 | 1/1 | 7.73s | |
| #38 | GPT-5.4 Nano medium | OpenAI | 10.0 | 7.6 | 1/1 | 7.71s |
| #8 | Qwen3.5 Plus 2026-02-15 medium | Qwen | 10.0 | 8.5 | 1/1 | 7.54s |
| #26 | Claude Sonnet 4.6 medium | Anthropic | 10.0 | 8.0 | 1/1 | 7.48s |
| #10 | Qwen3.5-27B medium | Qwen | 10.0 | 8.4 | 1/1 | 7.45s |