Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

OpenAI: GPT-5.5 vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-05-08

Metrik GPT-5.5 GPT-5.5 low Veröffentlichung: 2026-04-24 GLM 5 Turbo GLM 5 Turbo medium Veröffentlichung: 2026-03-15
Punktzahl 8.9 8.1
Rang #6 #20
Zuverlässigkeit 10.0 6.7
Konsistenz 10.0 8.4
Korrekte Tests
Erfolgsquote pro Versuch 84.2% 77.2%
Instabile Tests 0 4
Gesamtläufe 57 57
Kosten pro Ergebnis 4.412 1.438
Gesamtkosten $0.706 $0.187
Eingabepreis $5.000 / 1M $1.200 / 1M
Ausgabepreis $30.000 / 1M $4.000 / 1M
Ausgabe-Token 2,008 12,217
Denk-Token 16,914 40,252
Antwortzeit (Durchschnitt) 8.80s 18.85s
Antwortzeit (Maximum) 56.19s 194.23s
Antwortzeit (Gesamt) 167.26s 358.15s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 4.43s 246 1,011
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 7.79s 369 936
GLM 5 Turbo 10.0 10.0 100.0% 0 12.26s 332 3,301
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 9.56s 303 717
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 3.28s 228 157
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 5.3 10.0 33.3% 0 27.57s 69 11,731
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 7.14s 146 170
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 9.9 10.0 100.0% 0 2.98s 93 356
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 4.94s 274 895
GLM 5 Turbo 8.7 7.9 77.8% 1 5.44s 315 2,702
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 10.0 10.0 100.0% 0 4.96s 250 101
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446
Allgemeinwissen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.5 3.0 10.0 0.0% 0 10.06s 30 840
GLM 5 Turbo 3.0 10.0 0.0% 0 40.17s 20 1,319

Schnellvergleich

Vergleichspaar wechseln