Navegação
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

ByteDance Seed: Seed-2.0-Lite vs Z.ai: GLM 5 Turbo

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-05-08

Métrica Seed-2.0-Lite Seed-2.0-Lite medium Lançamento: 2026-02-14 GLM 5 Turbo GLM 5 Turbo medium Lançamento: 2026-03-15
Pontuação 8.3 8.1
Posição #11 #20
Confiabilidade 10.0 6.7
Consistência 8.9 8.4
Testes corretos
Taxa de acerto por tentativa 79.0% 77.2%
Testes instáveis 3 4
Execuções totais 57 57
Custo por resultado 0.958 1.438
Custo total $0.125 $0.187
Preço de entrada $0.250 / 1M $1.200 / 1M
Preço de saída $2.000 / 1M $4.000 / 1M
Tokens de saída 3,266 12,217
Tokens de raciocínio 54,082 40,252
Tempo de resposta (médio) 31.32s 18.85s
Tempo de resposta (máx.) 168.71s 194.23s
Tempo de resposta (total) 595.04s 358.15s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 8.3 10.0 75.0% 0 17.99s 996 7,142
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 10.0 10.0 100.0% 0 74.49s 436 7,319
GLM 5 Turbo 10.0 10.0 100.0% 0 12.26s 332 3,301
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 10.0 10.0 100.0% 0 37.67s 506 4,299
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 10.0 10.0 100.0% 0 9.07s 246 1,742
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 5.9 7.2 55.6% 1 88.74s 15 23,897
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 6.7 3.6 66.7% 1 18.25s 304 1,620
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 10.0 10.0 100.0% 0 7.26s 71 1,480
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 9.0 7.9 88.9% 1 11.03s 461 3,532
GLM 5 Turbo 8.7 7.9 77.8% 1 5.44s 315 2,702
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 10.0 10.0 100.0% 0 12.38s 222 1,011
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446
Conhecimentos gerais Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Seed-2.0-Lite 3.0 10.0 0.0% 0 48.32s 9 2,040
GLM 5 Turbo 3.0 10.0 0.0% 0 40.17s 20 1,319

Comparação rápida

Trocar par de comparação