Navegação
AI BENCHY
Your ad here

AI BENCHY Compare

Laguna M.1 vs Z.ai: GLM 5

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-04-29

Métrica Laguna M.1 Laguna M.1 medium Lançamento: 2026-04-28 Disponível grátis GLM 5 GLM 5 none Lançamento: 2026-02-12
Pontuação 6.3 6.6
Posição #74 #70
Confiabilidade 10.0 N/D
Consistência 8.6 9.6
Testes corretos
Taxa de acerto por tentativa 53.7% 51.9%
Testes instáveis 3 1
Execuções totais 54 54
Custo por resultado 0.000 0.217
Custo total $0.000 $0.020
Preço de entrada $0.000 / 1M $0.600 / 1M
Preço de saída $0.000 / 1M $2.080 / 1M
Tokens de saída 63,822 1,959
Tokens de raciocínio 0 0
Tempo de resposta (médio) 13.90s 4.23s
Tempo de resposta (máx.) 53.14s 11.07s
Tempo de resposta (total) 250.28s 46.51s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 6.6 10.0 50.0% 0 9.15s 7,839 0
GLM 5 4.8 10.0 25.0% 0 2.37s 275 0
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 4.3 1.1 66.7% 1 35.61s 14,327 0
GLM 5 5.6 3.5 33.3% 1 8.84s 408 0
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 3.0 10.0 0.0% 0 53.14s 12,272 0
GLM 5 3.0 10.0 0.0% 0 4.98s 406 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 4.93s 2,296 0
GLM 5 10.0 10.0 100.0% 0 5.78s 203 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 5.3 7.2 44.4% 1 24.14s 19,020 0
GLM 5 3.0 10.0 0.0% 0 2.24s 19 0
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 4.1 10.0 0.0% 0 6.86s 1,294 0
GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 4.30s 1,626 0
GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 3.6 7.2 22.2% 1 6.97s 3,978 0
GLM 5 7.7 10.0 66.7% 0 2.05s 264 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Laguna M.1 10.0 10.0 100.0% 0 6.31s 1,170 0
GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

Comparação rápida

Trocar par de comparação