Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs Z.ai: GLM 5

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-05-01

Metrik Claude Opus 4.6 Claude Opus 4.6 medium Veröffentlichung: 2026-02-05 GLM 5 GLM 5 none Veröffentlichung: 2026-02-12
Punktzahl 7.6 6.6
Rang #50 #70
Zuverlässigkeit k. A. k. A.
Konsistenz 9.1 9.6
Korrekte Tests
Erfolgsquote pro Versuch 70.4% 51.9%
Instabile Tests 2 1
Gesamtläufe 54 54
Kosten pro Ergebnis 12.047 0.217
Gesamtkosten $1.446 $0.020
Eingabepreis $5.000 / 1M $0.600 / 1M
Ausgabepreis $25.000 / 1M $2.080 / 1M
Ausgabe-Token 29,829 1,959
Denk-Token 18,938 0
Antwortzeit (Durchschnitt) 21.08s 4.23s
Antwortzeit (Maximum) 83.40s 11.07s
Antwortzeit (Gesamt) 231.84s 46.51s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 6.4 5.8 66.7% 2 7.45s 986 1,071
GLM 5 4.8 10.0 25.0% 0 2.37s 275 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 23.11s 3,486 1,504
GLM 5 5.6 3.5 33.3% 1 8.84s 408 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
GLM 5 3.0 10.0 0.0% 0 4.98s 406 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 7.37s 691 757
GLM 5 10.0 10.0 100.0% 0 5.78s 203 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 3.0 10.0 0.0% 0 83.40s 14,642 8,687
GLM 5 3.0 10.0 0.0% 0 2.24s 19 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 5.04s 188 292
GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 7.7 10.0 66.7% 0 4.60s 531 637
GLM 5 7.7 10.0 66.7% 0 2.05s 264 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

Schnellvergleich

Vergleichspaar wechseln