AI BENCHY 分类
常识问答 排名
看看哪些 AI 模型在 常识问答 上表现最好,哪些更稳定,以及差距主要出现在哪里。 排序方式: 测试正确 ↓.
失败原因
| 排名 | 模型 | 公司 | 常识问答 得分 | 分数 | 测试正确 | 响应时间(平均) |
|---|---|---|---|---|---|---|
| #66 | Grok 4.20 medium | X AI | 3.0 | 6.9 | 0/1 | 63.5s |
| #67 | GPT-5 Mini medium | OpenAI | 3.0 | 6.8 | 0/1 | 9.99s |
| #68 | Gemini 3.1 Flash Lite minimal | 3.0 | 6.8 | 0/1 | 724ms | |
| #69 | Kimi K2.5 medium | Moonshot AI | 3.0 | 6.8 | 0/1 | 83.9s |
| #70 | Qwen3.6 27B medium | Qwen | 3.0 | 6.8 | 0/1 | 81.0s |
| #72 | GPT-5.5 none | OpenAI | 3.0 | 6.7 | 0/1 | 5.01s |
| #73 | Gemini 3.1 Flash Lite none | 3.0 | 6.7 | 0/1 | 733ms | |
| #75 | Laguna Xs.2 medium | Poolside | 0.0 | 6.6 | 0/0 | 0ms |
| #76 | Qwen3.5 Plus 2026-02-15 none | Qwen | 3.0 | 6.5 | 0/1 | 1.11s |
| #77 | Grok 4.1 Fast medium | X AI | 3.0 | 6.5 | 0/1 | 25.5s |
| #78 | GLM 5 none | Z.ai | 3.0 | 6.5 | 0/1 | 3.62s |
| #79 | MiMo-V2-Omni none | Xiaomi | 3.0 | 6.3 | 0/1 | 1.30s |
| #80 | Mercury 2 medium | Inception | 3.0 | 6.3 | 0/1 | 2.58s |
| #81 | Gemini 2.5 Flash none | 3.0 | 6.3 | 0/1 | 1.15s | |
| #82 | Gemma 4 26B A4B none | 3.0 | 6.3 | 0/1 | 778ms |