Navegación
AI BENCHY
Your ad here

AI BENCHY Compare

Modelos comparados

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-04-04

Métrica Hunter Alpha Hunter Alpha medium Lanzamiento: 2026-03-11 MiMo-V2-Pro MiMo-V2-Pro medium Lanzamiento: 2026-03-18 MiMo-V2-Omni MiMo-V2-Omni medium Lanzamiento: 2026-03-18
Puntuación 7.0 8.0 7.9
Rango #43 #24 #26
Consistencia 7.2 8.5 10.0
Pruebas correctas
Tasa de aciertos por intento 68.6% 76.5% 64.7%
Pruebas inestables 6 3 0
Ejecuciones totales 51 45 17
Costo por resultado 0.000 1.110 0.763
Costo total $0.000 $0.123 $0.084
Precio de entrada $0.000 / 1M $1.000 / 1M $0.400 / 1M
Precio de salida $0.000 / 1M $3.000 / 1M $2.000 / 1M
Tokens de salida 4,724 1,875 663
Tokens de razonamiento 17,921 26,959 39,001
Tiempo de respuesta (promedio) 10.33s 9.78s 13.71s
Tiempo de respuesta (máximo) 30.53s 64.71s 158.78s
Tiempo de respuesta (total) 175.60s 156.45s 233.06s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntuación vs Tiempo de respuesta (promedio)

Total de tokens de salida

Puntuación vs Total de tokens de salida

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 7.3 5.8 83.3% 2 4.75s 479 1,103
MiMo-V2-Pro 10.0 10.0 100.0% 0 3.06s 223 1,107
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.11s 112 402
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 4.7 1.6 66.7% 1 30.53s 792 3,456
MiMo-V2-Pro 4.7 1.6 66.7% 1 64.71s 380 14,186
MiMo-V2-Omni 10.0 10.0 100.0% 0 19.29s 131 2,807
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 10.0 10.0 100.0% 0 23.16s 1,488 8,017
MiMo-V2-Pro 7.3 5.8 83.3% 1 17.20s 260 7,484
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.29s 87 323
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 3.0 10.0 0.0% 0 10.52s 892 2,406
MiMo-V2-Pro 5.3 10.0 33.3% 0 6.00s 155 1,048
MiMo-V2-Omni 3.0 10.0 0.0% 0 55.12s 13 33,279
Inteligencia general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 7.0 3.7 66.7% 1 6.44s 116 260
MiMo-V2-Pro 10.0 10.0 100.0% 0 4.06s 198 424
MiMo-V2-Omni 10.0 10.0 100.0% 0 2.86s 58 202
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 9.9 10.0 100.0% 0 4.18s 208 465
MiMo-V2-Pro 9.9 10.0 100.0% 0 3.36s 83 667
MiMo-V2-Omni 8.3 10.0 50.0% 0 4.92s 35 201
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 6.1 4.7 66.7% 2 5.36s 441 1,310
MiMo-V2-Pro 7.0 7.2 55.6% 1 4.71s 313 1,179
MiMo-V2-Omni 6.5 10.0 33.3% 0 3.88s 126 481
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Hunter Alpha 10.0 10.0 100.0% 0 17.33s 308 904
MiMo-V2-Pro 10.0 10.0 100.0% 0 8.19s 263 864
MiMo-V2-Omni 10.0 10.0 100.0% 0 11.07s 101 1,306

Comparación rápida

Cambiar par de comparación