Navegación
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5.4 Mini

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-04-16

Métrica Mercury 2 Mercury 2 none Lanzamiento: 2026-02-24 GPT-5.4 Mini GPT-5.4 Mini none Lanzamiento: 2026-03-17
Puntuación 4.8 5.1
Rango #89 #84
Consistencia 9.0 8.6
Pruebas correctas
Tasa de aciertos por intento 27.8% 35.2%
Pruebas inestables 2 3
Ejecuciones totales 54 54
Costo por resultado 0.165 0.630
Costo total $0.007 $0.032
Precio de entrada $0.250 / 1M $0.750 / 1M
Precio de salida $0.750 / 1M $4.500 / 1M
Tokens de salida 1,625 2,418
Tokens de razonamiento 0 0
Tiempo de respuesta (promedio) 613ms 1.17s
Tiempo de respuesta (máximo) 1.27s 2.52s
Tiempo de respuesta (total) 11.04s 21.01s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntuación vs Tiempo de respuesta (promedio)

Total de tokens de salida

Puntuación vs Total de tokens de salida

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 3.0 10.0 0.0% 0 483ms 286 0
GPT-5.4 Mini 3.1 8.1 8.3% 1 929ms 654 0
Programación Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 3.6 8.9 0.0% 0 969ms 310 0
GPT-5.4 Mini 10.0 10.0 100.0% 0 1.19s 333 0
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 3.0 10.0 0.0% 0 606ms 131 0
GPT-5.4 Mini 3.0 10.0 0.0% 0 2.52s 298 0
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 7.3 5.9 83.3% 1 667ms 180 0
GPT-5.4 Mini 10.0 10.0 100.0% 0 1.30s 222 0
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 5.3 7.2 44.4% 1 534ms 46 0
GPT-5.4 Mini 3.5 4.4 33.3% 2 937ms 88 0
Inteligencia general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 4.8 10.0 0.0% 0 628ms 159 0
GPT-5.4 Mini 4.8 10.0 0.0% 0 1.82s 174 0
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 6.5 10.0 50.0% 0 551ms 82 0
GPT-5.4 Mini 6.3 10.0 50.0% 0 728ms 101 0
Resolución de acertijos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 3.1 10.0 0.0% 0 533ms 234 0
GPT-5.4 Mini 5.4 10.0 33.3% 0 860ms 293 0
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Mercury 2 10.0 10.0 100.0% 0 1.27s 197 0
GPT-5.4 Mini 3.0 10.0 0.0% 0 2.32s 255 0

Comparación rápida

Cambiar par de comparación