Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs Z.ai: GLM 5

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-16

Metrik Claude Opus 4.7 Claude Opus 4.7 none Veröffentlichung: 2026-04-16 GLM 5 GLM 5 medium Veröffentlichung: 2026-02-12
Punktzahl 9.2 8.4
Rang #4 #13
Konsistenz 10.0 8.2
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 85.2%
Instabile Tests 0 4
Gesamtläufe 54 54
Kosten pro Ergebnis 3.155 1.188
Gesamtkosten $0.505 $0.155
Eingabepreis $5.000 / 1M $0.720 / 1M
Ausgabepreis $25.000 / 1M $2.300 / 1M
Ausgabe-Token 6,326 20,163
Denk-Token 0 58,337
Antwortzeit (Durchschnitt) 3.13s 23.34s
Antwortzeit (Maximum) 18.27s 79.09s
Antwortzeit (Gesamt) 56.33s 233.40s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 2.12s 522 0
GLM 5 10.0 10.0 100.0% 0 23.66s 480 7,056
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.84s 494 0
GLM 5 10.0 10.0 100.0% 0 79.09s 330 19,814
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 9.5 10.0 100.0% 0 18.27s 3,504 0
GLM 5 10.0 10.0 100.0% 0 28.96s 662 3,242
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.15s 324 0
GLM 5 7.1 5.6 83.3% 1 8.90s 567 3,734
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.19s 78 0
GLM 5 3.5 4.4 33.3% 2 0ms 13,176 14,137
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 3.47s 257 0
GLM 5 6.1 3.1 66.7% 1 14.69s 2,020 2,248
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.46s 114 0
GLM 5 10.0 10.0 100.0% 0 7.25s 1,001 2,129
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.58s 661 0
GLM 5 10.0 10.0 100.0% 0 15.64s 1,694 4,983
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.74s 372 0
GLM 5 10.0 10.0 100.0% 0 15.93s 233 994

Schnellvergleich

Vergleichspaar wechseln