AI BENCHY श्रेणी
संयुक्त रैंकिंग
देखें कि संयुक्त में कौन से AI मॉडल सबसे अच्छा प्रदर्शन करते हैं, कौन से भरोसेमंद बने रहते हैं और सबसे बड़े अंतर कहाँ दिखाई देते हैं। क्रमबद्ध करें: मेट्रिक ↑.
| रैंक | मॉडल | कंपनी | संयुक्त स्कोर | स्कोर | सही परीक्षण | प्रतिक्रिया समय (औसत) |
|---|---|---|---|---|---|---|
| #97 | Qwen3.5-9B medium | Qwen | 3.0 | 4.4 | 0/1 | 0ms |
| #98 | LFM2-24B-A2B none | Liquid | 3.0 | 4.1 | 0/1 | 0ms |
| #71 | MiniMax M2.5 medium | Minimax | 4.5 | 5.7 | 0/1 | 60.4s |
| #21 | Gemini 3 Flash Preview none | 4.7 | 8.1 | 0/1 | 3.56s | |
| #23 | MiMo-V2-Pro medium | Xiaomi | 4.7 | 8.1 | 0/1 | 64.7s |
| #43 | Qwen3.5-35B-A3B medium | Qwen | 4.7 | 7.4 | 0/1 | 75.3s |
| #50 | Hunter Alpha medium | OpenRouter | 4.7 | 6.7 | 0/1 | 30.5s |
| #80 | MiniMax M2.7 medium | Minimax | 4.7 | 5.3 | 0/1 | 41.0s |
| #64 | DeepSeek V3.2 none | DeepSeek | 6.5 | 6.1 | 0/1 | 115.9s |
| #31 | GLM 5V Turbo medium | Z.ai | 6.9 | 7.8 | 0/1 | 15.1s |
| #2 | Gemini 3.1 Pro Preview medium | 9.5 | 9.6 | 1/1 | 40.6s | |
| #4 | Claude Opus 4.7 none | Anthropic | 9.5 | 9.2 | 1/1 | 18.3s |
| #33 | GLM 5.1 medium | Z.ai | 9.5 | 7.8 | 1/1 | 43.1s |
| #42 | Claude Sonnet 4.6 none | Anthropic | 9.5 | 7.4 | 1/1 | 23.8s |
| #24 | Gemma 4 26B A4B medium | 9.6 | 8.0 | 1/1 | 73.5s |