Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs DeepSeek: DeepSeek V4 Pro

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-24

Metrik Claude Opus 4.6 Claude Opus 4.6 medium Veröffentlichung: 2026-02-05 DeepSeek V4 Pro DeepSeek V4 Pro high Veröffentlichung: 2026-04-24
Punktzahl 7.6 7.4
Rang #43 #50
Konsistenz 9.1 10.0
Korrekte Tests
Erfolgsquote pro Versuch 70.4% 61.1%
Instabile Tests 2 0
Gesamtläufe 54 24
Kosten pro Ergebnis 12.047 1.385
Gesamtkosten $1.446 $0.153
Eingabepreis $5.000 / 1M $1.740 / 1M
Ausgabepreis $25.000 / 1M $3.480 / 1M
Ausgabe-Token 29,829 584
Denk-Token 18,938 37,708
Antwortzeit (Durchschnitt) 21.08s 78.45s
Antwortzeit (Maximum) 83.40s 351.99s
Antwortzeit (Gesamt) 231.84s 1255.22s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 6.4 5.8 66.7% 2 7.45s 986 1,071
DeepSeek V4 Pro 8.3 10.0 75.0% 0 32.12s 64 1,799
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 23.11s 3,486 1,504
DeepSeek V4 Pro 10.0 10.0 100.0% 0 93.00s 82 2,808
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
DeepSeek V4 Pro 10.0 10.0 100.0% 0 71.08s 134 2,163
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 7.37s 691 757
DeepSeek V4 Pro 10.0 10.0 100.0% 0 63.00s 67 1,071
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 3.0 10.0 0.0% 0 83.40s 14,642 8,687
DeepSeek V4 Pro 5.3 10.0 33.3% 0 202.56s 11 25,343
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 5.04s 188 292
DeepSeek V4 Pro 5.0 10.0 0.0% 0 26.96s 51 734
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
DeepSeek V4 Pro 3.0 10.0 0.0% 0 0ms 0 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 7.7 10.0 66.7% 0 4.60s 531 637
DeepSeek V4 Pro 7.7 10.0 66.7% 0 63.66s 91 3,617
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
DeepSeek V4 Pro 10.0 10.0 100.0% 0 11.05s 84 173

Schnellvergleich

Vergleichspaar wechseln