Navegação
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Xiaomi: MiMo-V2-Omni vs Z.ai: GLM 5.1

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-04-29

Métrica MiMo-V2-Omni MiMo-V2-Omni medium Lançamento: 2026-03-18 GLM 5.1 GLM 5.1 medium Lançamento: 2026-04-07
Pontuação 7.7 7.8
Posição #47 #44
Confiabilidade N/D N/D
Consistência 9.9 8.6
Testes corretos
Taxa de acerto por tentativa 61.1% 75.9%
Testes instáveis 0 3
Execuções totais 20 54
Custo por resultado 1.383 1.674
Custo total $0.153 $0.201
Preço de entrada $0.400 / 1M $1.050 / 1M
Preço de saída $2.000 / 1M $3.500 / 1M
Tokens de saída 928 8,005
Tokens de raciocínio 72,661 49,090
Tempo de resposta (médio) 16.76s 24.13s
Tempo de resposta (máx.) 158.78s 118.52s
Tempo de resposta (total) 301.61s 410.25s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.11s 112 402
GLM 5.1 10.0 10.0 100.0% 0 8.31s 401 5,122
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 4.0 7.9 0.0% 0 68.55s 265 33,660
GLM 5.1 4.7 1.6 66.7% 1 118.52s 1,339 13,777
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 10.0 10.0 100.0% 0 19.29s 131 2,807
GLM 5.1 9.5 10.0 100.0% 0 43.11s 327 4,206
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.29s 87 323
GLM 5.1 10.0 10.0 100.0% 0 9.33s 991 4,552
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 3.0 10.0 0.0% 0 55.12s 13 33,279
GLM 5.1 5.3 10.0 33.3% 0 29.77s 969 11,314
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.86s 58 202
GLM 5.1 10.0 10.0 100.0% 0 20.95s 2,875 2,875
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 8.3 10.0 50.0% 0 4.92s 35 201
GLM 5.1 6.4 5.8 66.7% 1 7.47s 204 1,617
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 6.5 10.0 33.3% 0 3.88s 126 481
GLM 5.1 8.2 7.2 88.9% 1 23.85s 899 5,627
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
MiMo-V2-Omni 10.0 10.0 100.0% 0 11.07s 101 1,306
GLM 5.1 3.0 10.0 0.0% 0 0ms 0 0

Comparação rápida

Trocar par de comparação