Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-16

Metrik Claude Opus 4.7 Claude Opus 4.7 none Veröffentlichung: 2026-04-16 GLM 5 Turbo GLM 5 Turbo medium Veröffentlichung: 2026-03-15
Punktzahl 9.2 8.1
Rang #4 #18
Konsistenz 10.0 8.0
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 77.8%
Instabile Tests 0 5
Gesamtläufe 54 54
Kosten pro Ergebnis 3.155 1.511
Gesamtkosten $0.505 $0.182
Eingabepreis $5.000 / 1M $1.200 / 1M
Ausgabepreis $25.000 / 1M $4.000 / 1M
Ausgabe-Token 6,326 12,197
Denk-Token 0 38,933
Antwortzeit (Durchschnitt) 3.13s 17.67s
Antwortzeit (Maximum) 18.27s 194.23s
Antwortzeit (Gesamt) 56.33s 317.98s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 2.12s 522 0
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.84s 494 0
GLM 5 Turbo 10.0 10.0 100.0% 0 12.26s 332 3,301
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 9.5 10.0 100.0% 0 18.27s 3,504 0
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.15s 324 0
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.19s 78 0
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 3.47s 257 0
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.46s 114 0
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.58s 661 0
GLM 5 Turbo 7.3 5.8 55.6% 2 5.44s 315 2,702
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.74s 372 0
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446

Schnellvergleich

Vergleichspaar wechseln