Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs OpenAI: GPT-5.3-Codex

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-16

Metrik Claude Opus 4.7 Claude Opus 4.7 medium Veröffentlichung: 2026-04-16 GPT-5.3-Codex GPT-5.3-Codex medium Veröffentlichung: 2026-02-05
Punktzahl 9.2 8.6
Rang #3 #7
Konsistenz 10.0 8.7
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 83.3%
Instabile Tests 0 3
Gesamtläufe 54 54
Kosten pro Ergebnis 2.790 4.405
Gesamtkosten $0.447 $0.573
Eingabepreis $5.000 / 1M $1.750 / 1M
Ausgabepreis $25.000 / 1M $14.000 / 1M
Ausgabe-Token 5,375 2,279
Denk-Token 1,341 35,179
Antwortzeit (Durchschnitt) 3.53s 15.38s
Antwortzeit (Maximum) 21.45s 100.93s
Antwortzeit (Gesamt) 60.03s 276.91s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 1.85s 348 0
GPT-5.3-Codex 8.7 7.9 91.7% 1 4.16s 240 1,722
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 6.41s 1,141 257
GPT-5.3-Codex 10.0 10.0 100.0% 0 8.95s 491 1,530
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 21.45s 2,369 1,084
GPT-5.3-Codex 10.0 10.0 100.0% 0 19.56s 364 2,731
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.37s 324 0
GPT-5.3-Codex 10.0 10.0 100.0% 0 3.07s 234 728
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.17s 51 0
GPT-5.3-Codex 5.9 7.2 55.6% 1 64.31s 64 25,308
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.87s 256 0
GPT-5.3-Codex 4.6 10.0 0.0% 0 4.87s 187 331
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.57s 114 0
GPT-5.3-Codex 10.0 10.0 100.0% 0 3.04s 93 693
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.51s 399 0
GPT-5.3-Codex 9.0 7.9 88.9% 1 5.12s 352 1,644
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.17s 373 0
GPT-5.3-Codex 10.0 10.0 100.0% 0 6.37s 254 492

Schnellvergleich

Vergleichspaar wechseln