Navegación
AI BENCHY
Comparar Gráficos
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs Inception: Mercury 2

Comparar:

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-05

Métrica Anthropic: Claude Opus 4.6 medium Lanzamiento: 2026-02-05 Inception: Mercury 2 none Lanzamiento: 2026-02-24
Rango #30 #50
Puntaje prom. 64 34
Consistencia 89 89
Costo por resultado 14.411 0.147
Costo total $1.297 $0.006
Tiempo de respuesta (promedio) 25.08s 594ms
Tiempo de respuesta (máximo) 83.40s 1.27s
Tiempo de respuesta (total) 200.67s 8.91s
Pruebas correctas
Tasa de aciertos por intento 64.4% 33.3%
Pruebas inestables 2 2
Tokens de salida 26,066 1,144
Tokens de razonamiento 17,071 0

Mejores modelos por puntuación

Tiempo de respuesta (promedio)

Puntuación vs costo total

Puntaje prom. vs Tiempo de respuesta (promedio)

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 40 44 55.6% 2 11.88s 897 1,000
Inception: Mercury 2 100 100 0.0% 0 466ms 274 0
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 100 100 100.0% 0 76.66s 8,178 5,194
Inception: Mercury 2 100 100 0.0% 0 606ms 131 0
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 99 100 100.0% 0 7.37s 691 757
Inception: Mercury 2 55 59 83.3% 1 667ms 180 0
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 100 100 0.0% 0 83.40s 14,642 8,687
Inception: Mercury 2 40 72 44.4% 1 534ms 46 0
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 100 100 100.0% 0 2.43s 266 467
Inception: Mercury 2 55 100 50.0% 0 551ms 82 0
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 70 100 66.7% 0 4.60s 531 637
Inception: Mercury 2 100 100 0.0% 0 533ms 234 0
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 100 100 100.0% 0 9.73s 861 329
Inception: Mercury 2 100 100 100.0% 0 1.27s 197 0

Comparación rápida

Cambiar par de comparación