Navegação
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Xiaomi: MiMo-V2.5 vs Z.ai: GLM 5.1

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-04-22

Métrica MiMo-V2.5 MiMo-V2.5 medium Lançamento: 2026-04-22 GLM 5.1 GLM 5.1 medium Lançamento: 2026-04-07
Pontuação 7.8 7.8
Posição #35 #34
Consistência 8.6 8.6
Testes corretos
Taxa de acerto por tentativa 74.1% 75.9%
Testes instáveis 3 3
Execuções totais 54 54
Custo por resultado 2.102 1.674
Custo total $0.253 $0.201
Preço de entrada $0.400 / 1M $1.050 / 1M
Preço de saída $2.000 / 1M $3.500 / 1M
Tokens de saída 2,840 8,005
Tokens de raciocínio 116,242 49,090
Tempo de resposta (médio) 13.71s 24.13s
Tempo de resposta (máx.) 86.93s 118.52s
Tempo de resposta (total) 246.73s 410.25s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 10.0 10.0 100.0% 0 1.98s 303 2,022
GLM 5.1 10.0 10.0 100.0% 0 8.31s 401 5,122
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 10.0 10.0 100.0% 0 31.48s 488 14,813
GLM 5.1 4.7 1.6 66.7% 1 118.52s 1,339 13,777
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 10.0 10.0 100.0% 0 16.86s 363 7,609
GLM 5.1 9.5 10.0 100.0% 0 43.11s 327 4,206
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 2.7 5.7 16.7% 1 6.33s 306 5,714
GLM 5.1 10.0 10.0 100.0% 0 9.33s 991 4,552
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 5.3 10.0 33.3% 0 34.53s 507 49,478
GLM 5.1 5.3 10.0 33.3% 0 29.77s 969 11,314
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 3.8 2.5 33.3% 1 1.55s 118 170
GLM 5.1 10.0 10.0 100.0% 0 20.95s 2,875 2,875
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 9.9 10.0 100.0% 0 1.80s 88 801
GLM 5.1 6.4 5.8 66.7% 1 7.47s 204 1,617
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 8.2 7.2 88.9% 1 20.60s 364 33,211
GLM 5.1 8.2 7.2 88.9% 1 23.85s 899 5,627
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2.5 10.0 10.0 100.0% 0 7.29s 303 2,424
GLM 5.1 3.0 10.0 0.0% 0 0ms 0 0

Comparação rápida

Trocar par de comparação