Navegação
AI BENCHY
Comparar Gráficos
❤️ Made by XCS
Your ad here

AI BENCHY Compare

OpenAI: GPT-4o-mini vs Z.ai: GLM 5

Nome do modelo:

Benchmarks gerados a partir das suítes de teste do AI BENCHY em : 2026-02-27 15:16

Resumo

Métrica OpenAI: GPT-4o-mini none Lançamento: Data de lançamento desconhecida Z.ai: GLM 5 none Lançamento: Data de lançamento desconhecida
Posição #28 #19
Pontuação 4.86 6.07
Consistência 9.98 10.00
Custo por resultado 0.056 0.095
Custo total $0.003 $0.008
Testes corretos
Testes errados 9 6
Taxa de acerto por tentativa 35.7% 57.1%
Testes instáveis 0 0
Tokens de saída 949 1,086
Tokens de raciocínio 0 0

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tokens de saída Tokens de raciocínio
OpenAI: GPT-4o-mini 4.00 10.00 33.3% 0 180 0
Z.ai: GLM 5 4.00 10.00 33.3% 0 272 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tokens de saída Tokens de raciocínio
OpenAI: GPT-4o-mini 10.00 10.00 100.0% 0 183 0
Z.ai: GLM 5 10.00 10.00 100.0% 0 230 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tokens de saída Tokens de raciocínio
OpenAI: GPT-4o-mini 1.00 10.00 0.0% 0 15 0
Z.ai: GLM 5 1.00 10.00 0.0% 0 20 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tokens de saída Tokens de raciocínio
OpenAI: GPT-4o-mini 5.50 10.00 50.0% 0 71 0
Z.ai: GLM 5 10.00 10.00 100.0% 0 62 0
Puzzle Solving Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tokens de saída Tokens de raciocínio
OpenAI: GPT-4o-mini 4.00 9.92 0.0% 0 295 0
Z.ai: GLM 5 6.67 9.99 66.7% 0 282 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tokens de saída Tokens de raciocínio
OpenAI: GPT-4o-mini 10.00 10.00 100.0% 0 205 0
Z.ai: GLM 5 10.00 10.00 100.0% 0 220 0

Trocar par de comparação