AI BENCHY श्रेणी
निर्देश पालन रैंकिंग
देखें कि निर्देश पालन में कौन से AI मॉडल सबसे अच्छा प्रदर्शन करते हैं, कौन से भरोसेमंद बने रहते हैं और सबसे बड़े अंतर कहाँ दिखाई देते हैं। क्रमबद्ध करें: सही परीक्षण ↑.
| रैंक | मॉडल | कंपनी | निर्देश पालन स्कोर | स्कोर | सही परीक्षण | प्रतिक्रिया समय (औसत) |
|---|---|---|---|---|---|---|
| #77 | GLM 5 Turbo none | Z.ai | 6.5 | 5.5 | 1/2 | 2.13s |
| #83 | Mistral Small 4 none | Mistral | 6.5 | 5.2 | 1/2 | 380ms |
| #84 | gpt-oss-120b none | OpenAI | 8.4 | 5.2 | 1/2 | 5.10s |
| #86 | GPT-5.4 Mini none | OpenAI | 6.3 | 5.1 | 1/2 | 728ms |
| #90 | Qwen3.5-9B none | Qwen | 6.5 | 4.8 | 1/2 | 514ms |
| #91 | Mercury 2 none | Inception | 6.5 | 4.8 | 1/2 | 551ms |
| #93 | GLM 4.7 Flash medium | Z.ai | 6.2 | 4.6 | 1/2 | 2.97s |
| #94 | MiMo-V2-Flash none | Xiaomi | 6.5 | 4.5 | 1/2 | 857ms |
| #97 | Qwen3.5-9B medium | Qwen | 6.4 | 4.4 | 1/2 | 17.1s |
| #1 | Gemini 3 Flash Preview medium | 10.0 | 10.0 | 2/2 | 6.10s | |
| #2 | Gemini 3.1 Pro Preview medium | 10.0 | 9.6 | 2/2 | 9.56s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 10.0 | 9.2 | 2/2 | 1.57s |
| #4 | Claude Opus 4.7 none | Anthropic | 10.0 | 9.2 | 2/2 | 1.46s |
| #5 | Gemini 3 Flash Preview low | 9.9 | 8.8 | 2/2 | 7.02s | |
| #6 | Seed-2.0-Lite medium | Bytedance Seed | 10.0 | 8.6 | 2/2 | 7.26s |