Navigation
AI BENCHY
Vergleichen Diagramme Methodik
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Trinity Large Preview vs OpenAI: GPT-5 Mini

Vergleichen:

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-06

Metrik Trinity Large Preview none Veröffentlichung: 2026-01-27 Kostenlos verfügbar OpenAI: GPT-5 Mini medium Veröffentlichung: 2025-08-07
Rang #45 #32
Ø-Score 4.2 6.0
Konsistenz 9.6 8.9
Kosten pro Ergebnis 0.000 1.457
Gesamtkosten $0.000 $0.117
Korrekte Tests
Erfolgsquote pro Versuch 33.3% 58.3%
Instabile Tests 1 2
Gesamtläufe 48 48
Ausgabe-Token 1,837 5,826
Denk-Token 0 48,768
Antwortzeit (Durchschnitt) 3.15s 25.14s
Antwortzeit (Maximum) 8.91s 88.15s
Antwortzeit (Gesamt) 50.46s 402.29s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Ø-Score vs Antwortzeit (Durchschnitt)

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 10.0 10.0 0.0% 0 3.59s 587 0
OpenAI: GPT-5 Mini 7.0 9.6 66.7% 0 16.45s 1,645 5,824
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 10.0 10.0 0.0% 0 8.91s 294 0
OpenAI: GPT-5 Mini 10.0 10.0 100.0% 0 88.15s 754 11,520
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 9.9 10.0 100.0% 0 3.26s 186 0
OpenAI: GPT-5 Mini 9.9 10.0 100.0% 0 12.58s 453 3,200
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 4.0 10.0 33.3% 0 877ms 25 0
OpenAI: GPT-5 Mini 10.0 7.2 22.2% 1 44.63s 293 14,016
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 3.0 9.9 0.0% 0 2.86s 124 0
OpenAI: GPT-5 Mini 4.0 10.0 0.0% 0 13.50s 349 1,856
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 3.5 6.7 16.7% 1 1.09s 63 0
OpenAI: GPT-5 Mini 7.5 6.6 83.3% 1 15.66s 318 4,992
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 4.0 10.0 33.3% 0 3.30s 291 0
OpenAI: GPT-5 Mini 4.3 9.8 33.3% 0 14.09s 1,527 5,760
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 10.0 10.0 100.0% 0 6.67s 267 0
OpenAI: GPT-5 Mini 10.0 10.0 100.0% 0 18.64s 487 1,600

Schnellvergleich

Vergleichspaar wechseln