AI BENCHY Compare
OpenAI: GPT-5 Mini vs Z.ai: GLM 5
Comparar:
Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-03
| Métrica | OpenAI: GPT-5 Mini medium Lanzamiento: 2025-08-07 | Z.ai: GLM 5 none Lanzamiento: 2026-02-12 |
|---|---|---|
| Rango | #33 | #27 |
| Puntaje prom. | 5.77 | 6.07 |
| Consistencia | 8.79 | 10.00 |
| Costo por resultado | 1.200 | 0.095 |
| Costo total | $0.084 | $0.008 |
| Pruebas correctas | ||
| Tasa de aciertos por intento | 57.1% | 57.1% |
| Pruebas inestables | 2 | 0 |
| Tokens de salida | 4,723 | 1,086 |
| Tokens de razonamiento | 35,392 | 0 |
Puntuación vs costo total
Desglose por categoría
| Trucos anti-IA | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 7.00 | 9.62 | 66.7% | 0 | 1,645 | 5,824 | |
| Z.ai: GLM 5 | 4.00 | 10.00 | 33.3% | 0 | 272 | 0 |
| Análisis y extracción de datos | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 9.88 | 10.00 | 100.0% | 0 | 453 | 3,200 | |
| Z.ai: GLM 5 | 10.00 | 10.00 | 100.0% | 0 | 230 | 0 |
| Específico del dominio | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 1.00 | 7.21 | 22.2% | 1 | 293 | 14,016 | |
| Z.ai: GLM 5 | 1.00 | 10.00 | 0.0% | 0 | 20 | 0 |
| Seguimiento de instrucciones | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 7.00 | 6.64 | 66.7% | 1 | 318 | 4,992 | |
| Z.ai: GLM 5 | 10.00 | 10.00 | 100.0% | 0 | 62 | 0 |
| Puzzle Solving | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 4.33 | 9.78 | 33.3% | 0 | 1,527 | 5,760 | |
| Z.ai: GLM 5 | 6.67 | 9.99 | 66.7% | 0 | 282 | 0 |
| Llamada de herramientas | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5 Mini | 10.00 | 10.00 | 100.0% | 0 | 487 | 1,600 | |
| Z.ai: GLM 5 | 10.00 | 10.00 | 100.0% | 0 | 220 | 0 |
Comparación rápida
Cambiar par de comparación
Claude Opus 4.6mediumvsGLM 5noneSeed-2.0-MinimediumvsGLM 5noneMiMo-V2-FlashmediumvsGLM 5noneQwen3.5-35B-A3BmediumvsGLM 5noneGPT-5 NanomediumvsGLM 5noneKimi K2.5mediumvsGLM 5noneGrok 4.1 FastmediumvsGLM 5noneQwen3.5-FlashmediumvsGLM 5nonegpt-oss-120bmediumDisponible gratisvsGLM 5noneMiniMax M2.5mediumvsGLM 5noneGemini 2.5 FlashnonevsGPT-5 MinimediumGPT-5 MinimediumvsQwen3.5 Plus 2026-02-15none