Navegación
AI BENCHY
Advertise here

AI BENCHY Compare

ByteDance Seed: Seed-2.0-Lite vs Z.ai: GLM 5 Turbo

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-05-08

Métrica Seed-2.0-Lite Seed-2.0-Lite medium Lanzamiento: 2026-02-14 GLM 5 Turbo GLM 5 Turbo medium Lanzamiento: 2026-03-15
Puntuación 8.3 8.1
Rango #11 #20
Fiabilidad 10.0 6.7
Consistencia 8.9 8.4
Pruebas correctas
Tasa de aciertos por intento 79.0% 77.2%
Pruebas inestables 3 4
Ejecuciones totales 57 57
Costo por resultado 0.958 1.438
Costo total $0.125 $0.187
Precio de entrada $0.250 / 1M $1.200 / 1M
Precio de salida $2.000 / 1M $4.000 / 1M
Tokens de salida 3,266 12,217
Tokens de razonamiento 54,082 40,252
Tiempo de respuesta (promedio) 31.32s 18.85s
Tiempo de respuesta (máximo) 168.71s 194.23s
Tiempo de respuesta (total) 595.04s 358.15s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntuación vs Tiempo de respuesta (promedio)

Total de tokens de salida

Puntuación vs Total de tokens de salida

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 8.3 10.0 75.0% 0 17.99s 996 7,142
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Programación Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 10.0 10.0 100.0% 0 74.49s 436 7,319
GLM 5 Turbo 10.0 10.0 100.0% 0 12.26s 332 3,301
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 10.0 10.0 100.0% 0 37.67s 506 4,299
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 10.0 10.0 100.0% 0 9.07s 246 1,742
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 5.9 7.2 55.6% 1 88.74s 15 23,897
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Inteligencia general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 6.7 3.6 66.7% 1 18.25s 304 1,620
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 10.0 10.0 100.0% 0 7.26s 71 1,480
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Resolución de acertijos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 9.0 7.9 88.9% 1 11.03s 461 3,532
GLM 5 Turbo 8.7 7.9 77.8% 1 5.44s 315 2,702
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 10.0 10.0 100.0% 0 12.38s 222 1,011
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446
Cultura general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Seed-2.0-Lite 3.0 10.0 0.0% 0 48.32s 9 2,040
GLM 5 Turbo 3.0 10.0 0.0% 0 40.17s 20 1,319

Comparación rápida

Cambiar par de comparación