Navigation
AI BENCHY
Vergleichen Diagramme Methodik
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

OpenAI: GPT-5.3-Codex vs OpenAI: GPT-5.4

Vergleichen:

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-06

Metrik OpenAI: GPT-5.3-Codex medium Veröffentlichung: 2026-02-05 OpenAI: GPT-5.4 medium Veröffentlichung: 2026-03-05
Ø-Score 8.7 8.2
Rang #4 #7
Korrekte Tests
Konsistenz 9.0 8.9
Kosten pro Ergebnis 4.418 6.533
Gesamtkosten $0.531 $0.784
Erfolgsquote pro Versuch 88.9% 86.7%
Instabile Tests 2 2
common.totalRuns 45 (15 x 3) 45 (15 x 3)
Ausgabe-Token 1,577 1,611
Denk-Token 33,017 46,321
Antwortzeit (Durchschnitt) 17.37s 21.06s
Antwortzeit (Maximum) 100.93s 100.41s
Antwortzeit (Gesamt) 260.52s 315.95s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Ø-Score vs Antwortzeit (Durchschnitt)

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 4.69s 216 1,421
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 5.02s 216 1,466
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 19.56s 364 2,731
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 20.57s 301 3,543
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 9.9 10.0 100.0% 0 3.07s 234 728
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 5.32s 234 804
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 4.0 7.2 55.6% 1 64.31s 64 25,308
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 74.27s 61 34,748
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 3.04s 93 693
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 3.11s 93 897
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 9.3 7.9 88.9% 1 5.12s 352 1,644
OpenAI: GPT-5.4 7.0 7.2 88.9% 1 9.13s 442 3,832
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 6.37s 254 492
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 13.28s 264 1,031

Schnellvergleich

Vergleichspaar wechseln