Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs DeepSeek: DeepSeek V3.2

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-16

Metrik Claude Opus 4.7 Claude Opus 4.7 none Veröffentlichung: 2026-04-16 DeepSeek V3.2 DeepSeek V3.2 medium Veröffentlichung: 2025-12-01
Punktzahl 9.2 8.0
Rang #4 #27
Konsistenz 10.0 8.2
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 79.6%
Instabile Tests 0 4
Gesamtläufe 54 54
Kosten pro Ergebnis 3.155 0.240
Gesamtkosten $0.505 $0.029
Eingabepreis $5.000 / 1M $0.260 / 1M
Ausgabepreis $25.000 / 1M $0.380 / 1M
Ausgabe-Token 6,326 10,620
Denk-Token 0 48,511
Antwortzeit (Durchschnitt) 3.13s 46.41s
Antwortzeit (Maximum) 18.27s 180.92s
Antwortzeit (Gesamt) 56.33s 835.33s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 2.12s 522 0
DeepSeek V3.2 8.4 9.9 75.0% 0 30.72s 3,773 7,523
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.84s 494 0
DeepSeek V3.2 4.7 1.6 66.7% 1 180.92s 626 6,792
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 9.5 10.0 100.0% 0 18.27s 3,504 0
DeepSeek V3.2 10.0 10.0 100.0% 0 93.11s 571 6,296
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.15s 324 0
DeepSeek V3.2 10.0 10.0 100.0% 0 36.09s 207 7,693
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.19s 78 0
DeepSeek V3.2 5.3 7.2 44.4% 1 39.32s 3,081 7,856
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 3.47s 257 0
DeepSeek V3.2 5.4 2.5 66.7% 1 31.30s 68 2,366
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.46s 114 0
DeepSeek V3.2 10.0 10.0 100.0% 0 35.78s 1,397 2,845
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.58s 661 0
DeepSeek V3.2 8.2 7.2 88.9% 1 36.87s 390 6,281
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.74s 372 0
DeepSeek V3.2 10.0 10.0 100.0% 0 34.81s 507 859

Schnellvergleich

Vergleichspaar wechseln