فئة AI BENCHY
ترتيب استدعاء الأدوات
اكتشف أي نماذج الذكاء الاصطناعي تؤدي أفضل في استدعاء الأدوات، وأيها يظل أكثر اعتمادية، وأين تظهر أكبر الفجوات. الترتيب حسب: المقياس ↑.
| الترتيب | النموذج | الشركة | درجة استدعاء الأدوات | النتيجة | اختبارات صحيحة | زمن الاستجابة (المتوسط) |
|---|---|---|---|---|---|---|
| #89 | GPT-4o-mini none | OpenAI | 10.0 | 4.9 | 1/1 | 2.51s |
| #90 | Qwen3.5-9B none | Qwen | 10.0 | 4.8 | 1/1 | 1.27s |
| #91 | Mercury 2 none | Inception | 10.0 | 4.8 | 1/1 | 1.27s |
| #92 | Qwen3 Coder Next medium | Qwen | 10.0 | 4.7 | 1/1 | 2.64s |
| #93 | GLM 4.7 Flash medium | Z.ai | 10.0 | 4.6 | 1/1 | 15.9s |
| #94 | MiMo-V2-Flash none | Xiaomi | 10.0 | 4.5 | 1/1 | 2.28s |
| #96 | GPT-5.4 Nano none | OpenAI | 10.0 | 4.5 | 1/1 | 3.40s |
| #97 | Qwen3.5-9B medium | Qwen | 10.0 | 4.4 | 1/1 | 4.31s |