AI BENCHY Compare
OpenAI: GPT-5 Mini vs Z.ai: GLM 5
Comparar:
Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-03-03
| Métrica | OpenAI: GPT-5 Mini medium Lançamento: 2025-08-07 | Z.ai: GLM 5 none Lançamento: 2026-02-12 |
|---|---|---|
| Posição | #33 | #27 |
| Pontuação média | 5.77 | 6.07 |
| Consistência | 8.79 | 10.00 |
| Custo por resultado | 1.200 | 0.095 |
| Custo total | $0.084 | $0.008 |
| Testes corretos | ||
| Taxa de acerto por tentativa | 57.1% | 57.1% |
| Testes instáveis | 2 | 0 |
| Tokens de saída | 4,723 | 1,086 |
| Tokens de raciocínio | 35,392 | 0 |
Pontuação vs custo total
Detalhamento por categoria
| Truques anti-IA | Pontuação | Consistência | Taxa de acerto por tentativa | Testes instáveis | Testes corretos | Tokens de saída | Tokens de raciocínio |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 7.00 | 9.62 | 66.7% | 0 | 1,645 | 5,824 | |
| Z.ai: GLM 5 | 4.00 | 10.00 | 33.3% | 0 | 272 | 0 |
| Análise e extração de dados | Pontuação | Consistência | Taxa de acerto por tentativa | Testes instáveis | Testes corretos | Tokens de saída | Tokens de raciocínio |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 9.88 | 10.00 | 100.0% | 0 | 453 | 3,200 | |
| Z.ai: GLM 5 | 10.00 | 10.00 | 100.0% | 0 | 230 | 0 |
| Específico do domínio | Pontuação | Consistência | Taxa de acerto por tentativa | Testes instáveis | Testes corretos | Tokens de saída | Tokens de raciocínio |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 1.00 | 7.21 | 22.2% | 1 | 293 | 14,016 | |
| Z.ai: GLM 5 | 1.00 | 10.00 | 0.0% | 0 | 20 | 0 |
| Seguimento de instruções | Pontuação | Consistência | Taxa de acerto por tentativa | Testes instáveis | Testes corretos | Tokens de saída | Tokens de raciocínio |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 7.00 | 6.64 | 66.7% | 1 | 318 | 4,992 | |
| Z.ai: GLM 5 | 10.00 | 10.00 | 100.0% | 0 | 62 | 0 |
| Puzzle Solving | Pontuação | Consistência | Taxa de acerto por tentativa | Testes instáveis | Testes corretos | Tokens de saída | Tokens de raciocínio |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 4.33 | 9.78 | 33.3% | 0 | 1,527 | 5,760 | |
| Z.ai: GLM 5 | 6.67 | 9.99 | 66.7% | 0 | 282 | 0 |
| Chamada de ferramentas | Pontuação | Consistência | Taxa de acerto por tentativa | Testes instáveis | Testes corretos | Tokens de saída | Tokens de raciocínio |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 10.00 | 10.00 | 100.0% | 0 | 487 | 1,600 | |
| Z.ai: GLM 5 | 10.00 | 10.00 | 100.0% | 0 | 220 | 0 |
Comparação rápida
Trocar par de comparação
Claude Opus 4.6mediumvsGLM 5noneSeed-2.0-MinimediumvsGLM 5noneMiMo-V2-FlashmediumvsGLM 5noneQwen3.5-35B-A3BmediumvsGLM 5noneGPT-5 NanomediumvsGLM 5noneKimi K2.5mediumvsGLM 5noneGrok 4.1 FastmediumvsGLM 5noneQwen3.5-FlashmediumvsGLM 5nonegpt-oss-120bmediumDisponível grátisvsGLM 5noneMiniMax M2.5mediumvsGLM 5noneGemini 2.5 FlashnonevsGPT-5 MinimediumGPT-5 MinimediumvsQwen3.5 Plus 2026-02-15none