Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5.4 Mini

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-17

Metrik Mercury 2 Mercury 2 medium Veröffentlichung: 2026-02-24 GPT-5.4 Mini GPT-5.4 Mini none Veröffentlichung: 2026-03-17
Rang #42 #66
Punktzahl 6.3 4.8
Konsistenz 8.5 8.6
Kosten pro Ergebnis 0.634 0.737
Gesamtkosten $0.045 $0.030
Korrekte Tests
Erfolgsquote pro Versuch 51.0% 31.4%
Instabile Tests 3 3
Gesamtläufe 51 51
Ausgabe-Token 3,723 2,085
Denk-Token 46,120 0
Antwortzeit (Durchschnitt) 2.25s 1.17s
Antwortzeit (Maximum) 14.63s 2.52s
Antwortzeit (Gesamt) 35.99s 19.82s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 6.9 9.9 50.0% 0 1.12s 2,546 2,609
GPT-5.4 Mini 3.1 8.1 8.3% 1 929ms 654 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 3.28s 268 4,887
GPT-5.4 Mini 3.0 10.0 0.0% 0 2.52s 298 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 7.3 5.9 83.3% 1 1.11s 183 1,656
GPT-5.4 Mini 10.0 10.0 100.0% 0 1.30s 222 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 2.9 7.2 11.1% 1 6.48s 41 30,754
GPT-5.4 Mini 3.5 4.4 33.3% 2 937ms 88 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 4.8 10.0 0.0% 0 821ms 137 542
GPT-5.4 Mini 4.8 10.0 0.0% 0 1.82s 174 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.07s 14 958
GPT-5.4 Mini 6.3 10.0 50.0% 0 728ms 101 0
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 3.9 7.5 22.2% 1 934ms 354 2,758
GPT-5.4 Mini 5.4 10.0 33.3% 0 860ms 293 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.89s 180 1,956
GPT-5.4 Mini 3.0 10.0 0.0% 0 2.32s 255 0

Schnellvergleich

Vergleichspaar wechseln