Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs DeepSeek: DeepSeek V4 Pro

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-24

Metrik Claude Opus 4.7 Claude Opus 4.7 medium Veröffentlichung: 2026-04-16 DeepSeek V4 Pro DeepSeek V4 Pro high Veröffentlichung: 2026-04-24
Punktzahl 9.2 8.2
Rang #3 #20
Zuverlässigkeit k. A. k. A.
Konsistenz 10.0 9.6
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 74.1%
Instabile Tests 0 1
Gesamtläufe 54 24
Kosten pro Ergebnis 2.790 1.224
Gesamtkosten $0.447 $0.160
Eingabepreis $5.000 / 1M $1.740 / 1M
Ausgabepreis $25.000 / 1M $3.480 / 1M
Ausgabe-Token 5,375 671
Denk-Token 1,341 39,383
Antwortzeit (Durchschnitt) 3.53s 71.21s
Antwortzeit (Maximum) 21.45s 351.99s
Antwortzeit (Gesamt) 60.03s 1281.73s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 1.85s 348 0
DeepSeek V4 Pro 8.3 10.0 75.0% 0 26.93s 70 2,008
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 6.41s 1,141 257
DeepSeek V4 Pro 10.0 10.0 100.0% 0 93.00s 82 2,808
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 21.45s 2,369 1,084
DeepSeek V4 Pro 10.0 10.0 100.0% 0 71.08s 134 2,163
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.37s 324 0
DeepSeek V4 Pro 10.0 10.0 100.0% 0 63.00s 67 1,071
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.17s 51 0
DeepSeek V4 Pro 5.3 10.0 33.3% 0 202.56s 11 25,343
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.87s 256 0
DeepSeek V4 Pro 5.0 10.0 0.0% 0 26.96s 51 734
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.57s 114 0
DeepSeek V4 Pro 10.0 10.0 100.0% 0 14.60s 21 1,236
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.51s 399 0
DeepSeek V4 Pro 7.6 7.4 77.8% 1 69.69s 151 3,847
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.17s 373 0
DeepSeek V4 Pro 10.0 10.0 100.0% 0 11.05s 84 173

Schnellvergleich

Vergleichspaar wechseln