Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs OpenAI: GPT-5.2

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-30

Metrik Claude Opus 4.6 Claude Opus 4.6 medium Veröffentlichung: 2026-02-05 GPT-5.2 GPT-5.2 medium Veröffentlichung: 2025-12-11
Punktzahl 7.6 7.5
Rang #49 #53
Zuverlässigkeit k. A. k. A.
Konsistenz 9.1 8.1
Korrekte Tests
Erfolgsquote pro Versuch 70.4% 72.2%
Instabile Tests 2 4
Gesamtläufe 54 54
Kosten pro Ergebnis 12.047 3.193
Gesamtkosten $1.446 $0.352
Eingabepreis $5.000 / 1M $1.750 / 1M
Ausgabepreis $25.000 / 1M $14.000 / 1M
Ausgabe-Token 29,829 2,705
Denk-Token 18,938 18,977
Antwortzeit (Durchschnitt) 21.08s 14.04s
Antwortzeit (Maximum) 83.40s 77.80s
Antwortzeit (Gesamt) 231.84s 154.41s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 6.4 5.8 66.7% 2 7.45s 986 1,071
GPT-5.2 6.5 8.0 58.3% 1 7.81s 567 2,002
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 23.11s 3,486 1,504
GPT-5.2 10.0 10.0 100.0% 0 15.12s 467 2,166
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
GPT-5.2 10.0 10.0 100.0% 0 14.06s 291 1,757
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 7.37s 691 757
GPT-5.2 10.0 10.0 100.0% 0 3.15s 234 420
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 3.0 10.0 0.0% 0 83.40s 14,642 8,687
GPT-5.2 5.9 7.2 55.6% 1 77.80s 42 10,342
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 5.04s 188 292
GPT-5.2 3.7 9.7 0.0% 0 4.32s 162 269
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
GPT-5.2 9.9 10.0 100.0% 0 3.12s 94 614
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 7.7 10.0 66.7% 0 4.60s 531 637
GPT-5.2 7.7 7.3 77.8% 1 5.47s 609 938
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
GPT-5.2 4.7 1.6 66.7% 1 10.30s 239 469

Schnellvergleich

Vergleichspaar wechseln