AI BENCHY Compare
Anthropic: Claude Opus 4.6 vs DeepSeek: DeepSeek V3.2
Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-03
| Metrik | Anthropic: Claude Opus 4.6 medium Veröffentlichung: 2026-02-05 | DeepSeek: DeepSeek V3.2 none Veröffentlichung: 2025-12-01 |
|---|---|---|
| Rang | #21 | #30 |
| Ø-Score | 6.07 | 4.70 |
| Konsistenz | 8.80 | 8.19 |
| Kosten pro Ergebnis | 10.992 | 0.132 |
| Gesamtkosten | $0.880 | $0.007 |
| Korrekte Tests | 8/14 | 5/14 |
| Erfolgsquote pro Versuch | 61.9% | 47.6% |
| Instabile Tests | 2 | 3 |
| Ausgabe-Token | 19,576 | 4,869 |
| Denk-Token | 11,081 | 0 |
Kategorieaufschlüsselung
| Anti-KI-Tricks | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 4.00 | 4.41 | 55.6% | 2 | 897 | 1,000 | |
| DeepSeek: DeepSeek V3.2 | 1.00 | 9.68 | 0.0% | 0 | 1,411 | 0 |
| Datenanalyse und -extraktion | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 10.00 | 10.00 | 100.0% | 0 | 668 | 763 | |
| DeepSeek: DeepSeek V3.2 | 5.38 | 5.81 | 66.7% | 1 | 1,710 | 0 |
| Domänenspezifisch | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 1.00 | 10.00 | 0.0% | 0 | 16,328 | 7,928 | |
| DeepSeek: DeepSeek V3.2 | 1.00 | 7.21 | 22.2% | 1 | 24 | 0 |
| Befolgung von Anweisungen | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 9.50 | 9.99 | 100.0% | 0 | 266 | 468 | |
| DeepSeek: DeepSeek V3.2 | 8.00 | 9.99 | 50.0% | 0 | 66 | 0 |
| Puzzle Solving | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 7.00 | 10.00 | 66.7% | 0 | 556 | 593 | |
| DeepSeek: DeepSeek V3.2 | 7.67 | 7.49 | 88.9% | 1 | 1,136 | 0 |
| Werkzeugaufrufe | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 10.00 | 10.00 | 100.0% | 0 | 861 | 329 | |
| DeepSeek: DeepSeek V3.2 | 10.00 | 10.00 | 100.0% | 0 | 522 | 0 |
Schnellvergleich
Vergleichspaar wechseln
Claude Opus 4.6mediumvsGLM 5noneClaude Opus 4.6mediumvsQwen3.5 Plus 2026-02-15noneDeepSeek V3.2nonevsGLM 4.7 FlashmediumClaude Opus 4.6mediumvsQwen3.5-122B-A10BnoneDeepSeek V3.2nonevsMiniMax M2.5mediumDeepSeek V3.2nonevsgpt-oss-120bmediumKostenlos verfügbarDeepSeek V3.2nonevsQwen3.5-FlashmediumClaude Opus 4.6mediumvsGemini 3 Flash PreviewnoneDeepSeek V3.2nonevsGPT-5 NanomediumDeepSeek V3.2nonevsQwen3 Coder NextmediumClaude Opus 4.6mediumvsGPT-4o-mininoneDeepSeek V3.2nonevsQwen3.5-35B-A3Bmedium