Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Z.ai: GLM 5.1 vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-07

Metrik GLM 5.1 GLM 5.1 medium Veröffentlichung: 2026-04-07 GLM 5 Turbo GLM 5 Turbo medium Veröffentlichung: 2026-03-15
Punktzahl 8.0 8.0
Rang #23 #20
Konsistenz 9.0 7.9
Korrekte Tests
Erfolgsquote pro Versuch 76.5% 76.5%
Instabile Tests 2 5
Gesamtläufe 51 51
Kosten pro Ergebnis 1.270 1.509
Gesamtkosten $0.153 $0.166
Eingabepreis $1.000 / 1M $1.200 / 1M
Ausgabepreis $3.200 / 1M $4.000 / 1M
Ausgabe-Token 6,666 11,865
Denk-Token 35,313 35,632
Antwortzeit (Durchschnitt) 18.23s 17.98s
Antwortzeit (Maximum) 43.11s 194.23s
Antwortzeit (Gesamt) 291.73s 305.72s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 10.0 10.0 100.0% 0 8.31s 401 5,122
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 9.5 10.0 100.0% 0 43.11s 327 4,206
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 10.0 10.0 100.0% 0 9.33s 991 4,552
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 5.3 10.0 33.3% 0 29.77s 969 11,314
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 10.0 10.0 100.0% 0 20.95s 2,875 2,875
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 6.4 5.8 66.7% 1 7.47s 204 1,617
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 8.2 7.2 88.9% 1 23.85s 899 5,627
GLM 5 Turbo 7.3 5.8 55.6% 2 5.44s 315 2,702
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GLM 5.1 3.0 10.0 0.0% 0 0ms 0 0
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446

Schnellvergleich

Vergleichspaar wechseln