Categoria AI BENCHY
Ranking de Inteligência geral
Veja quais modelos de IA vão melhor em Inteligência geral, quais permanecem confiáveis e onde aparecem as maiores diferenças. Ordenar por: Métrica ↑.
| Posição | Modelo | Empresa | Pontuação de Inteligência geral | Pontuação | Testes corretos | Tempo de resposta (médio) |
|---|---|---|---|---|---|---|
| #95 | Grok 4.1 Fast none | X AI | 4.4 | 4.5 | 0/1 | 1.08s |
| #38 | GPT-5.4 Nano medium | OpenAI | 4.5 | 7.6 | 0/1 | 4.15s |
| #44 | GPT-5.4 Mini medium | OpenAI | 4.5 | 7.3 | 0/1 | 3.72s |
| #45 | GPT-5 Mini medium | OpenAI | 4.5 | 7.0 | 0/1 | 13.5s |
| #55 | MiMo-V2-Omni none | Xiaomi | 4.5 | 6.5 | 0/1 | 1.19s |
| #7 | GPT-5.3-Codex medium | OpenAI | 4.6 | 8.6 | 0/1 | 4.87s |
| #36 | GPT-5.3 Chat none | OpenAI | 4.6 | 7.7 | 0/1 | 1.99s |
| #58 | GLM 5V Turbo none | Z.ai | 4.6 | 6.2 | 0/1 | 2.22s |
| #84 | gpt-oss-120b none | OpenAI | 4.6 | 5.2 | 0/1 | 2.83s |
| #94 | MiMo-V2-Flash none | Xiaomi | 4.6 | 4.5 | 0/1 | 1.67s |
| #8 | Qwen3.5 Plus 2026-02-15 medium | Qwen | 4.7 | 8.5 | 0/1 | 79.9s |
| #16 | GPT-5.4 medium | OpenAI | 4.7 | 8.2 | 0/1 | 4.92s |
| #15 | Gemini 2.5 Flash medium | 4.8 | 8.2 | 0/1 | 4.86s | |
| #54 | Mercury 2 medium | Inception | 4.8 | 6.5 | 0/1 | 821ms |
| #73 | Mistral Small 4 medium | Mistral | 4.8 | 5.7 | 0/1 | 2.05s |