Navigation
AI BENCHY
Vergleichen Diagramme
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5.4

Vergleichen:

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-05

Metrik Inception: Mercury 2 medium Veröffentlichung: 2026-02-24 OpenAI: GPT-5.4 none Veröffentlichung: 2026-03-05
Rang #35 #44
Ø-Score 54 46
Konsistenz 83 89
Kosten pro Ergebnis 0.622 1.496
Gesamtkosten $0.044 $0.090
Antwortzeit (Durchschnitt) 2.47s 1.46s
Antwortzeit (Maximum) 14.63s 2.89s
Antwortzeit (Gesamt) 34.56s 21.86s
Korrekte Tests
Erfolgsquote pro Versuch 57.8% 44.4%
Instabile Tests 3 2
Ausgabe-Token 3,571 1,635
Denk-Token 45,379 0

Top-Modelle nach Score

Antwortzeit (Durchschnitt)

Score vs. Gesamtkosten

Ø-Score vs Antwortzeit (Durchschnitt)

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 73 98 66.7% 0 1.30s 2,531 2,410
OpenAI: GPT-5.4 100 73 11.1% 1 1.41s 388 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 100.0% 0 3.28s 268 4,887
OpenAI: GPT-5.4 100 100 0.0% 0 2.89s 291 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 55 59 83.3% 1 1.11s 183 1,656
OpenAI: GPT-5.4 99 100 100.0% 0 1.04s 222 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 72 11.1% 1 6.48s 41 30,754
OpenAI: GPT-5.4 40 72 44.4% 1 1.07s 50 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 100.0% 0 1.07s 14 958
OpenAI: GPT-5.4 55 100 50.0% 0 1.07s 81 0
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 17 75 22.2% 1 934ms 354 2,758
OpenAI: GPT-5.4 40 98 33.3% 0 1.52s 357 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 100.0% 0 1.89s 180 1,956
OpenAI: GPT-5.4 100 100 100.0% 0 2.75s 246 0

Schnellvergleich

Vergleichspaar wechseln