Navegación
AI BENCHY
Comparar Gráficos Metodología
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Trinity Large Preview vs OpenAI: GPT-5 Mini

Comparar:

Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-06

Métrica Trinity Large Preview none Lanzamiento: 2026-01-27 Disponible gratis OpenAI: GPT-5 Mini medium Lanzamiento: 2025-08-07
Rango #45 #32
Puntaje prom. 4.2 6.0
Consistencia 9.6 8.9
Costo por resultado 0.000 1.457
Costo total $0.000 $0.117
Pruebas correctas
Tasa de aciertos por intento 33.3% 58.3%
Pruebas inestables 1 2
Ejecuciones totales 48 48
Tokens de salida 1,837 5,826
Tokens de razonamiento 0 48,768
Tiempo de respuesta (promedio) 3.15s 25.14s
Tiempo de respuesta (máximo) 8.91s 88.15s
Tiempo de respuesta (total) 50.46s 402.29s

Mejores modelos por puntuación

Puntuación vs costo total

Tiempo de respuesta (promedio)

Puntaje prom. vs Tiempo de respuesta (promedio)

Desglose por categoría

Trucos anti-IA Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 10.0 10.0 0.0% 0 3.59s 587 0
OpenAI: GPT-5 Mini 7.0 9.6 66.7% 0 16.45s 1,645 5,824
Combinado Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 10.0 10.0 0.0% 0 8.91s 294 0
OpenAI: GPT-5 Mini 10.0 10.0 100.0% 0 88.15s 754 11,520
Análisis y extracción de datos Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 9.9 10.0 100.0% 0 3.26s 186 0
OpenAI: GPT-5 Mini 9.9 10.0 100.0% 0 12.58s 453 3,200
Específico del dominio Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 4.0 10.0 33.3% 0 877ms 25 0
OpenAI: GPT-5 Mini 10.0 7.2 22.2% 1 44.63s 293 14,016
Inteligencia general Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 3.0 9.9 0.0% 0 2.86s 124 0
OpenAI: GPT-5 Mini 4.0 10.0 0.0% 0 13.50s 349 1,856
Seguimiento de instrucciones Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 3.5 6.7 16.7% 1 1.09s 63 0
OpenAI: GPT-5 Mini 7.5 6.6 83.3% 1 15.66s 318 4,992
Puzzle Solving Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 4.0 10.0 33.3% 0 3.30s 291 0
OpenAI: GPT-5 Mini 4.3 9.8 33.3% 0 14.09s 1,527 5,760
Llamada de herramientas Puntuación Consistencia Tasa de aciertos por intento Pruebas inestables Pruebas correctas Tiempo de respuesta (promedio) Tokens de salida Tokens de razonamiento
Trinity Large Preview 10.0 10.0 100.0% 0 6.67s 267 0
OpenAI: GPT-5 Mini 10.0 10.0 100.0% 0 18.64s 487 1,600

Comparación rápida

Cambiar par de comparación