Navegação
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Laguna M.1 vs Xiaomi: MiMo-V2-Omni

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-04-29

Métrica Laguna M.1 Laguna M.1 medium Lançamento: 2026-04-28 Disponível grátis MiMo-V2-Omni MiMo-V2-Omni none Lançamento: 2026-03-18
Pontuação 6.3 6.5
Posição #74 #72
Confiabilidade 10.0 N/D
Consistência 8.6 10.0
Testes corretos
Taxa de acerto por tentativa 53.7% 44.4%
Testes instáveis 3 0
Execuções totais 54 20
Custo por resultado 0.000 0.083
Custo total $0.000 $0.007
Preço de entrada $0.000 / 1M $0.400 / 1M
Preço de saída $0.000 / 1M $2.000 / 1M
Tokens de saída 63,822 868
Tokens de raciocínio 0 0
Tempo de resposta (médio) 13.90s 1.99s
Tempo de resposta (máx.) 53.14s 6.81s
Tempo de resposta (total) 250.28s 35.81s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 6.6 10.0 50.0% 0 9.15s 7,839 0
MiMo-V2-Omni 4.8 10.0 25.0% 0 1.10s 74 0
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 4.3 1.1 66.7% 1 35.61s 14,327 0
MiMo-V2-Omni 6.6 10.0 0.0% 0 1.72s 399 0
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 3.0 10.0 0.0% 0 53.14s 12,272 0
MiMo-V2-Omni 3.0 10.0 0.0% 0 2.47s 110 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 4.93s 2,296 0
MiMo-V2-Omni 10.0 10.0 100.0% 0 1.69s 83 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 5.3 7.2 44.4% 1 24.14s 19,020 0
MiMo-V2-Omni 5.3 10.0 33.3% 0 1.14s 8 0
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 4.1 10.0 0.0% 0 6.86s 1,294 0
MiMo-V2-Omni 4.5 10.0 0.0% 0 1.19s 37 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 4.30s 1,626 0
MiMo-V2-Omni 6.5 10.0 50.0% 0 4.18s 22 0
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 3.6 7.2 22.2% 1 6.97s 3,978 0
MiMo-V2-Omni 8.0 10.0 66.7% 0 2.71s 58 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 6.31s 1,170 0
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.76s 77 0

Comparação rápida

Trocar par de comparação