Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs OpenAI: GPT-5.5

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-24

Metrik Claude Opus 4.7 Claude Opus 4.7 none Veröffentlichung: 2026-04-16 GPT-5.5 GPT-5.5 medium Veröffentlichung: 2026-04-24
Punktzahl 9.2 9.0
Rang #4 #5
Zuverlässigkeit k. A. k. A.
Konsistenz 10.0 9.2
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 87.0%
Instabile Tests 0 2
Gesamtläufe 54 54
Kosten pro Ergebnis 3.155 19.226
Gesamtkosten $0.505 $2.884
Eingabepreis $5.000 / 1M $5.000 / 1M
Ausgabepreis $25.000 / 1M $30.000 / 1M
Ausgabe-Token 6,326 1,920
Denk-Token 0 89,632
Antwortzeit (Durchschnitt) 3.13s 32.75s
Antwortzeit (Maximum) 18.27s 332.10s
Antwortzeit (Gesamt) 56.33s 589.59s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 2.12s 522 0
GPT-5.5 10.0 10.0 100.0% 0 4.66s 250 1,335
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.84s 494 0
GPT-5.5 10.0 10.0 100.0% 0 9.09s 318 1,391
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 9.5 10.0 100.0% 0 18.27s 3,504 0
GPT-5.5 10.0 10.0 100.0% 0 19.29s 312 2,841
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.15s 324 0
GPT-5.5 10.0 10.0 100.0% 0 4.18s 234 593
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.19s 78 0
GPT-5.5 5.3 7.2 44.4% 1 164.14s 67 79,625
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 3.47s 257 0
GPT-5.5 10.0 10.0 100.0% 0 4.16s 138 223
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.46s 114 0
GPT-5.5 10.0 10.0 100.0% 0 3.36s 93 538
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.58s 661 0
GPT-5.5 8.6 7.9 77.8% 1 6.78s 250 2,254
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.74s 372 0
GPT-5.5 10.0 10.0 100.0% 0 10.57s 258 832

Schnellvergleich

Vergleichspaar wechseln