Navegação
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Laguna M.1 vs Xiaomi: MiMo-V2-Pro

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-04-29

Métrica Laguna M.1 Laguna M.1 medium Lançamento: 2026-04-28 Disponível grátis MiMo-V2-Pro MiMo-V2-Pro none Lançamento: 2026-03-18
Pontuação 6.3 6.0
Posição #74 #85
Confiabilidade 10.0 N/D
Consistência 8.6 8.6
Testes corretos
Taxa de acerto por tentativa 53.7% 48.2%
Testes instáveis 3 3
Execuções totais 54 54
Custo por resultado 0.000 0.601
Custo total $0.000 $0.043
Preço de entrada $0.000 / 1M $1.000 / 1M
Preço de saída $0.000 / 1M $3.000 / 1M
Tokens de saída 63,822 2,320
Tokens de raciocínio 0 0
Tempo de resposta (médio) 13.90s 2.39s
Tempo de resposta (máx.) 53.14s 6.58s
Tempo de resposta (total) 250.28s 43.06s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 6.6 10.0 50.0% 0 9.15s 7,839 0
MiMo-V2-Pro 3.5 8.0 16.7% 1 1.80s 315 0
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 4.3 1.1 66.7% 1 35.61s 14,327 0
MiMo-V2-Pro 10.0 10.0 100.0% 0 3.82s 599 0
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 3.0 10.0 0.0% 0 53.14s 12,272 0
MiMo-V2-Pro 3.0 10.0 0.0% 0 6.58s 333 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 4.93s 2,296 0
MiMo-V2-Pro 10.0 10.0 100.0% 0 1.39s 249 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 5.3 7.2 44.4% 1 24.14s 19,020 0
MiMo-V2-Pro 5.3 7.2 44.4% 1 1.78s 26 0
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 4.1 10.0 0.0% 0 6.86s 1,294 0
MiMo-V2-Pro 4.3 9.9 0.0% 0 2.44s 125 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 4.30s 1,626 0
MiMo-V2-Pro 6.5 10.0 50.0% 0 2.51s 69 0
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 3.6 7.2 22.2% 1 6.97s 3,978 0
MiMo-V2-Pro 6.0 7.1 55.6% 1 1.83s 327 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 6.31s 1,170 0
MiMo-V2-Pro 10.0 10.0 100.0% 0 4.39s 277 0

Comparação rápida

Trocar par de comparação