Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

DeepSeek: DeepSeek V3.2 vs Z.ai: GLM 5

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-04

Metrik DeepSeek V3.2 DeepSeek V3.2 none Veröffentlichung: 2025-12-01 GLM 5 GLM 5 none Veröffentlichung: 2026-02-12
Punktzahl 6.4 6.7
Rang #51 #49
Konsistenz 8.5 10.0
Korrekte Tests
Erfolgsquote pro Versuch 51.0% 52.9%
Instabile Tests 3 0
Gesamtläufe 51 51
Kosten pro Ergebnis 0.220 0.201
Gesamtkosten $0.016 $0.019
Eingabepreis $0.260 / 1M $0.720 / 1M
Ausgabepreis $0.380 / 1M $2.300 / 1M
Ausgabe-Token 7,831 1,551
Denk-Token 0 0
Antwortzeit (Durchschnitt) 12.35s 3.77s
Antwortzeit (Maximum) 115.89s 11.07s
Antwortzeit (Gesamt) 209.94s 37.66s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 3.2 9.8 0.0% 0 7.63s 1,419 0
GLM 5 4.8 10.0 25.0% 0 2.37s 275 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 6.5 10.0 0.0% 0 115.89s 2,887 0
GLM 5 3.0 10.0 0.0% 0 4.98s 406 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 6.3 5.8 66.7% 1 9.42s 1,710 0
GLM 5 10.0 10.0 100.0% 0 5.78s 203 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 3.6 7.2 22.2% 1 1.61s 24 0
GLM 5 3.0 10.0 0.0% 0 2.24s 19 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 10.0 10.0 100.0% 0 2.86s 67 0
GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 10.0 10.0 100.0% 0 1.52s 66 0
GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 8.5 7.5 88.9% 1 7.37s 1,136 0
GLM 5 7.7 10.0 66.7% 0 2.05s 264 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
DeepSeek V3.2 10.0 10.0 100.0% 0 11.85s 522 0
GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

Schnellvergleich

Vergleichspaar wechseln