AI BENCHY श्रेणी
सामान्य ज्ञान रैंकिंग
देखें कि सामान्य ज्ञान में कौन से AI मॉडल सबसे अच्छा प्रदर्शन करते हैं, कौन से भरोसेमंद बने रहते हैं और सबसे बड़े अंतर कहाँ दिखाई देते हैं। क्रमबद्ध करें: सही परीक्षण ↑.
विफलता के कारण
| रैंक | मॉडल | कंपनी | सामान्य ज्ञान स्कोर | स्कोर | सही परीक्षण | प्रतिक्रिया समय (औसत) |
|---|---|---|---|---|---|---|
| #3 | Claude Opus 4.7 medium | Anthropic | 3.0 | 8.9 | 0/1 | 2.25s |
| #4 | GPT-5.5 medium | OpenAI | 2.8 | 8.9 | 0/1 | 37.9s |
| #5 | Claude Opus 4.7 none | Anthropic | 3.0 | 8.9 | 0/1 | 1.46s |
| #6 | GPT-5.5 low | OpenAI | 3.0 | 8.9 | 0/1 | 10.1s |
| #9 | Qwen3.6 Max Preview medium | Qwen | 3.0 | 8.5 | 0/1 | 60.6s |
| #10 | Gemini 3 PRO Preview medium | 0.0 | 8.4 | 0/0 | 0ms | |
| #11 | Seed-2.0-Lite medium | Bytedance Seed | 3.0 | 8.3 | 0/1 | 48.3s |
| #12 | Qwen3.5 Plus 2026-02-15 medium | Qwen | 3.0 | 8.2 | 0/1 | 103.8s |
| #13 | GPT-5.3-Codex medium | OpenAI | 2.8 | 8.2 | 0/1 | 14.4s |
| #14 | Gemma 4 31B medium | 3.0 | 8.2 | 0/1 | 90.1s | |
| #15 | Qwen3.6 Plus Preview medium | Qwen | 0.0 | 8.2 | 0/0 | 0ms |
| #17 | Qwen3.5-27B medium | Qwen | 3.0 | 8.1 | 0/1 | 85.1s |
| #19 | GLM 5 medium | Z.ai | 3.0 | 8.1 | 0/1 | 67.4s |
| #20 | GLM 5 Turbo medium | Z.ai | 3.0 | 8.1 | 0/1 | 40.2s |
| #21 | Qwen3.6 35B A3B medium | Qwen | 3.0 | 8.0 | 0/1 | 32.9s |