Navegación
AI BENCHY
Comparar Gráficos Metodología
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs OpenAI: GPT-5.4

Comparar:

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-06

Métrica Anthropic: Claude Opus 4.6 medium Lanzamiento: 2026-02-05 OpenAI: GPT-5.4 none Lanzamiento: 2026-03-05
Puntaje prom. 6.4 4.6
Rango #30 #44
Pruebas correctas
Consistencia 8.9 8.9
Costo por resultado 14.411 1.496
Costo total $1.297 $0.090
Tasa de aciertos por intento 64.4% 44.4%
Pruebas inestables 2 2
common.totalRuns 45 (15 x 3) 45 (15 x 3)
Tokens de salida 26,066 1,635
Tokens de razonamiento 17,071 0
Tiempo de respuesta (promedio) 25.08s 1.46s
Tiempo de respuesta (máximo) 83.40s 2.89s
Tiempo de respuesta (total) 200.67s 21.86s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntaje prom. vs Tiempo de respuesta (promedio)

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 4.0 4.4 55.6% 2 11.88s 897 1,000
OpenAI: GPT-5.4 10.0 7.3 11.1% 1 1.41s 388 0
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
OpenAI: GPT-5.4 10.0 10.0 0.0% 0 2.89s 291 0
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 9.9 10.0 100.0% 0 7.37s 691 757
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 1.04s 222 0
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 10.0 10.0 0.0% 0 83.40s 14,642 8,687
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 1.07s 50 0
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
OpenAI: GPT-5.4 5.5 10.0 50.0% 0 1.07s 81 0
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 7.0 10.0 66.7% 0 4.60s 531 637
OpenAI: GPT-5.4 4.0 9.8 33.3% 0 1.52s 357 0
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 2.75s 246 0

Comparación rápida

Cambiar par de comparación