Navegación
AI BENCHY
Comparar Gráficos
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-4o-mini

Comparar:

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-05

Métrica Inception: Mercury 2 medium Lanzamiento: 2026-02-24 OpenAI: GPT-4o-mini none Lanzamiento: 2024-07-18
Rango #35 #46
Puntaje prom. 5.4 4.1
Pruebas correctas
Consistencia 8.3 10.0
Costo por resultado 0.622 0.111
Costo total $0.044 $0.005
Tasa de aciertos por intento 57.8% 26.7%
Pruebas inestables 3 0
common.totalAttempts 45 (15 x 3) 45 (15 x 3)
Tokens de salida 3,571 1,528
Tokens de razonamiento 45,379 0
Tiempo de respuesta (promedio) 2.47s 2.21s
Tiempo de respuesta (máximo) 14.63s 7.58s
Tiempo de respuesta (total) 34.56s 17.69s

Mejores modelos por puntuación

Tiempo de respuesta (promedio)

Puntuación vs costo total

Puntaje prom. vs Tiempo de respuesta (promedio)

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 7.3 9.8 66.7% 0 1.30s 2,531 2,410
OpenAI: GPT-4o-mini 4.0 10.0 33.3% 0 1.83s 180 0
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 10.0 10.0 100.0% 0 3.28s 268 4,887
OpenAI: GPT-4o-mini 10.0 10.0 0.0% 0 7.58s 568 0
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 5.5 5.9 83.3% 1 1.11s 183 1,656
OpenAI: GPT-4o-mini 9.9 10.0 100.0% 0 1.27s 183 0
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 10.0 7.2 11.1% 1 6.48s 41 30,754
OpenAI: GPT-4o-mini 10.0 10.0 0.0% 0 637ms 15 0
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 10.0 10.0 100.0% 0 1.07s 14 958
OpenAI: GPT-4o-mini 4.5 10.0 0.0% 0 1.27s 69 0
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 1.7 7.5 22.2% 1 934ms 354 2,758
OpenAI: GPT-4o-mini 2.3 10.0 0.0% 0 1.30s 308 0
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Inception: Mercury 2 10.0 10.0 100.0% 0 1.89s 180 1,956
OpenAI: GPT-4o-mini 10.0 10.0 100.0% 0 2.51s 205 0

Comparación rápida

Cambiar par de comparación