Navegación
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

DeepSeek: DeepSeek V3.2 vs Z.ai: GLM 5.1

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-04-07

Métrica DeepSeek V3.2 DeepSeek V3.2 none Lanzamiento: 2025-12-01 GLM 5.1 GLM 5.1 medium Lanzamiento: 2026-04-07
Puntuación 6.4 8.0
Rango #52 #23
Consistencia 8.5 9.0
Pruebas correctas
Tasa de aciertos por intento 51.0% 76.5%
Pruebas inestables 3 2
Ejecuciones totales 51 51
Costo por resultado 0.220 1.270
Costo total $0.016 $0.153
Precio de entrada $0.260 / 1M $1.000 / 1M
Precio de salida $0.380 / 1M $3.200 / 1M
Tokens de salida 7,831 6,666
Tokens de razonamiento 0 35,313
Tiempo de respuesta (promedio) 12.35s 18.23s
Tiempo de respuesta (máximo) 115.89s 43.11s
Tiempo de respuesta (total) 209.94s 291.73s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntuación vs Tiempo de respuesta (promedio)

Total de tokens de salida

Puntuación vs Total de tokens de salida

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 3.2 9.8 0.0% 0 7.63s 1,419 0
GLM 5.1 10.0 10.0 100.0% 0 8.31s 401 5,122
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 6.5 10.0 0.0% 0 115.89s 2,887 0
GLM 5.1 9.5 10.0 100.0% 0 43.11s 327 4,206
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 6.3 5.8 66.7% 1 9.42s 1,710 0
GLM 5.1 10.0 10.0 100.0% 0 9.33s 991 4,552
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 3.6 7.2 22.2% 1 1.61s 24 0
GLM 5.1 5.3 10.0 33.3% 0 29.77s 969 11,314
Inteligencia general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 2.86s 67 0
GLM 5.1 10.0 10.0 100.0% 0 20.95s 2,875 2,875
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 1.52s 66 0
GLM 5.1 6.4 5.8 66.7% 1 7.47s 204 1,617
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 8.5 7.5 88.9% 1 7.37s 1,136 0
GLM 5.1 8.2 7.2 88.9% 1 23.85s 899 5,627
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 11.85s 522 0
GLM 5.1 3.0 10.0 0.0% 0 0ms 0 0

Comparación rápida

Cambiar par de comparación