Navegação
AI BENCHY
Your ad here

AI BENCHY Compare

Google: Gemini 3.1 Pro Preview vs Xiaomi: MiMo-V2-Omni

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-05-01

Métrica Gemini 3.1 Pro Preview Gemini 3.1 Pro Preview medium Lançamento: 2026-02-19 MiMo-V2-Omni MiMo-V2-Omni none Lançamento: 2026-03-18
Pontuação 9.6 6.5
Posição #2 #73
Confiabilidade N/D N/D
Consistência 10.0 10.0
Testes corretos
Taxa de acerto por tentativa 94.4% 44.4%
Testes instáveis 0 0
Execuções totais 54 20
Custo por resultado 3.400 0.083
Custo total $0.578 $0.007
Preço de entrada $2.000 / 1M $0.400 / 1M
Preço de saída $12.000 / 1M $2.000 / 1M
Tokens de saída 1,932 868
Tokens de raciocínio 40,542 0
Tempo de resposta (médio) 15.96s 1.99s
Tempo de resposta (máx.) 40.61s 6.81s
Tempo de resposta (total) 175.52s 35.81s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.90s 112 3,218
MiMo-V2-Omni 4.8 10.0 25.0% 0 1.10s 74 0
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 19.88s 405 4,201
MiMo-V2-Omni 6.6 10.0 0.0% 0 1.72s 399 0
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 9.5 10.0 100.0% 0 40.61s 432 9,281
MiMo-V2-Omni 3.0 10.0 0.0% 0 2.47s 110 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.72s 279 3,904
MiMo-V2-Omni 10.0 10.0 100.0% 0 1.69s 83 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 7.7 10.0 66.7% 0 32.73s 18 12,424
MiMo-V2-Omni 5.3 10.0 33.3% 0 1.14s 8 0
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 11.77s 108 1,179
MiMo-V2-Omni 4.5 10.0 0.0% 0 1.19s 37 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 9.56s 72 2,236
MiMo-V2-Omni 6.5 10.0 50.0% 0 4.18s 22 0
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.15s 232 3,117
MiMo-V2-Omni 8.0 10.0 66.7% 0 2.71s 58 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 23.15s 274 982
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.76s 77 0

Comparação rápida

Trocar par de comparação