Navigation
AI BENCHY
Vergleichen Diagramme Methodik
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Trinity Large Preview vs OpenAI: GPT-4o-mini

Vergleichen:

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-06

Metrik Trinity Large Preview none Veröffentlichung: 2026-01-27 Kostenlos verfügbar OpenAI: GPT-4o-mini none Veröffentlichung: 2024-07-18
Rang #45 #47
Ø-Score 4.2 4.0
Konsistenz 9.6 10.0
Kosten pro Ergebnis 0.000 0.114
Gesamtkosten $0.000 $0.005
Korrekte Tests
Erfolgsquote pro Versuch 33.3% 25.0%
Instabile Tests 1 0
Gesamtläufe 48 (16 x 3) 48 (16 x 3)
Ausgabe-Token 1,837 1,594
Denk-Token 0 0
Antwortzeit (Durchschnitt) 3.15s 2.07s
Antwortzeit (Maximum) 8.91s 7.58s
Antwortzeit (Gesamt) 50.46s 18.60s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Ø-Score vs Antwortzeit (Durchschnitt)

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 10.0 10.0 0.0% 0 3.59s 587 0
OpenAI: GPT-4o-mini 4.0 10.0 33.3% 0 1.83s 180 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 10.0 10.0 0.0% 0 8.91s 294 0
OpenAI: GPT-4o-mini 10.0 10.0 0.0% 0 7.58s 568 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 9.9 10.0 100.0% 0 3.26s 186 0
OpenAI: GPT-4o-mini 9.9 10.0 100.0% 0 1.27s 183 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 4.0 10.0 33.3% 0 877ms 25 0
OpenAI: GPT-4o-mini 10.0 10.0 0.0% 0 637ms 15 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 3.0 9.9 0.0% 0 2.86s 124 0
OpenAI: GPT-4o-mini 3.0 10.0 0.0% 0 909ms 66 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 3.5 6.7 16.7% 1 1.09s 63 0
OpenAI: GPT-4o-mini 4.5 10.0 0.0% 0 1.27s 69 0
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 4.0 10.0 33.3% 0 3.30s 291 0
OpenAI: GPT-4o-mini 2.3 10.0 0.0% 0 1.30s 308 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Trinity Large Preview 10.0 10.0 100.0% 0 6.67s 267 0
OpenAI: GPT-4o-mini 10.0 10.0 100.0% 0 2.51s 205 0

Schnellvergleich

Vergleichspaar wechseln