Navegación
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

DeepSeek: DeepSeek V3.2 vs Z.ai: GLM 5 Turbo

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-17

Métrica DeepSeek V3.2 DeepSeek V3.2 medium Lanzamiento: 2025-12-01 GLM 5 Turbo GLM 5 Turbo medium Lanzamiento: 2026-03-15
Rango #12 #16
Puntuación 8.2 8.0
Consistencia 8.5 7.9
Costo por resultado 0.215 1.509
Costo total $0.026 $0.166
Pruebas correctas
Tasa de aciertos por intento 80.4% 76.5%
Pruebas inestables 3 5
Ejecuciones totales 51 51
Tokens de salida 9,994 11,865
Tokens de razonamiento 41,719 35,632
Tiempo de respuesta (promedio) 38.49s 17.98s
Tiempo de respuesta (máximo) 93.11s 194.23s
Tiempo de respuesta (total) 654.41s 305.72s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntuación vs Tiempo de respuesta (promedio)

Total de tokens de salida

Puntuación vs Total de tokens de salida

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 8.4 9.9 75.0% 0 30.72s 3,773 7,523
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 93.11s 571 6,296
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 36.09s 207 7,693
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 5.3 7.2 44.4% 1 39.32s 3,081 7,856
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Inteligencia general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 5.4 2.5 66.7% 1 31.30s 68 2,366
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 35.78s 1,397 2,845
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 8.2 7.2 88.9% 1 36.87s 390 6,281
GLM 5 Turbo 7.3 5.8 55.6% 2 5.44s 315 2,702
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
DeepSeek V3.2 10.0 10.0 100.0% 0 34.81s 507 859
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446

Comparación rápida

Cambiar par de comparación