AI BENCHY Compare
OpenAI: GPT-5.4 vs Z.ai: GLM 5.1
Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-04-07
| Métrica | GPT-5.4 GPT-5.4 none | GLM 5.1 GLM 5.1 none |
|---|---|---|
| Puntuación | 5.6 | 5.6 |
| Rango | #68 | #67 |
| Consistencia | 9.0 | 8.2 |
| Pruebas correctas | ||
| Tasa de aciertos por intento | 39.2% | 39.2% |
| Pruebas inestables | 2 | 4 |
| Ejecuciones totales | 51 | 51 |
| Costo por resultado | 1.573 | 1.000 |
| Costo total | $0.095 | $0.050 |
| Precio de entrada | $2.500 / 1M | $1.000 / 1M |
| Precio de salida | $15.000 / 1M | $3.200 / 1M |
| Tokens de salida | 1,837 | 3,219 |
| Tokens de razonamiento | 0 | 0 |
| Tiempo de respuesta (promedio) | 1.43s | 4.01s |
| Tiempo de respuesta (máximo) | 2.89s | 32.57s |
| Tiempo de respuesta (total) | 24.27s | 68.23s |
Puntuación vs costo total
Tiempo de respuesta (promedio)
Puntuación vs Tiempo de respuesta (promedio)
Total de tokens de salida
Puntuación vs Total de tokens de salida
Desglose por categoría
Comparación rápida
Cambiar par de comparación
Mistral Small 4mediumvsGPT-5.4noneMistral Small 4mediumvsGLM 5.1noneMiniMax M2.5mediumDisponible gratisvsGLM 5.1noneMiniMax M2.5mediumDisponible gratisvsGPT-5.4nonegpt-oss-120bmediumDisponible gratisvsGLM 5.1noneGrok 4.20 Multi Agent BetamediumvsGLM 5.1noneGPT-5.4nonevsGrok 4.20 Multi Agent BetamediumGPT-5 NanomediumvsGLM 5.1noneMiniMax M2.7mediumvsGPT-5.4noneMiniMax M2.7mediumvsGLM 5.1noneMercury 2mediumvsGLM 5.1noneMercury 2mediumvsGPT-5.4none