AI BENCHY Compare
OpenAI: GPT-5.4 vs Z.ai: GLM 4.7 Flash
Vergleichen:
Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-05
| Metrik | OpenAI: GPT-5.4 none Veröffentlichung: 2026-03-05 | Z.ai: GLM 4.7 Flash medium Veröffentlichung: 2026-01-19 |
|---|---|---|
| Rang | #44 | #52 |
| Ø-Score | 4.6 | 3.3 |
| Korrekte Tests | ||
| Konsistenz | 8.9 | 6.1 |
| Kosten pro Ergebnis | 1.496 | 1.018 |
| Gesamtkosten | $0.090 | $0.041 |
| Erfolgsquote pro Versuch | 44.4% | 44.4% |
| Instabile Tests | 2 | 7 |
| common.totalAttempts | 45 (15 x 3) | 45 (15 x 3) |
| Ausgabe-Token | 1,635 | 38,664 |
| Denk-Token | 0 | 62,814 |
| Antwortzeit (Durchschnitt) | 1.46s | 39.18s |
| Antwortzeit (Maximum) | 2.89s | 174.55s |
| Antwortzeit (Gesamt) | 21.86s | 313.44s |
Antwortzeit (Durchschnitt)
Score vs. Gesamtkosten
Ø-Score vs Antwortzeit (Durchschnitt)
Kategorieaufschlüsselung
| Anti-KI-Tricks | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 10.0 | 7.3 | 11.1% | 1 | 1.41s | 388 | 0 | |
| Z.ai: GLM 4.7 Flash | 4.0 | 4.5 | 55.6% | 2 | 27.09s | 1,085 | 5,597 |
| Kombiniert | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 10.0 | 10.0 | 0.0% | 0 | 2.89s | 291 | 0 | |
| Z.ai: GLM 4.7 Flash | 10.0 | 2.1 | 33.3% | 1 | 65.57s | 2,585 | 20,648 |
| Datenanalyse und -extraktion | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 9.9 | 10.0 | 100.0% | 0 | 1.04s | 222 | 0 | |
| Z.ai: GLM 4.7 Flash | 5.0 | 10.0 | 50.0% | 0 | 1.51s | 584 | 2,755 |
| Domänenspezifisch | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 4.0 | 7.2 | 44.4% | 1 | 1.07s | 50 | 0 | |
| Z.ai: GLM 4.7 Flash | 10.0 | 4.4 | 33.3% | 2 | 174.55s | 33,000 | 25,394 |
| Befolgung von Anweisungen | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 5.5 | 10.0 | 50.0% | 0 | 1.07s | 81 | 0 | |
| Z.ai: GLM 4.7 Flash | 5.0 | 5.8 | 66.7% | 1 | 2.97s | 388 | 2,181 |
| Puzzle Solving | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 4.0 | 9.8 | 33.3% | 0 | 1.52s | 357 | 0 | |
| Z.ai: GLM 4.7 Flash | 10.0 | 7.2 | 11.1% | 1 | 12.90s | 798 | 5,225 |
| Werkzeugaufrufe | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 10.0 | 10.0 | 100.0% | 0 | 2.75s | 246 | 0 | |
| Z.ai: GLM 4.7 Flash | 10.0 | 10.0 | 100.0% | 0 | 15.95s | 224 | 1,014 |
Schnellvergleich
Vergleichspaar wechseln
Mercury 2nonevsGLM 4.7 FlashmediumMiniMax M2.5mediumvsGPT-5.4noneQwen3 Coder NextnonevsGLM 4.7 FlashmediumGrok 4.1 FastnonevsGLM 4.7 FlashmediumKimi K2.5nonevsGLM 4.7 FlashmediumMiMo-V2-FlashnonevsGLM 4.7 FlashmediumLFM2-24B-A2BnonevsGLM 4.7 FlashmediumGPT-4o-mininonevsGLM 4.7 FlashmediumMercury 2mediumvsGPT-5.4noneTrinity Large Preview (free)noneKostenlos verfügbarvsGLM 4.7 FlashmediumGPT-5.4nonevsQwen3.5-35B-A3BmediumGPT-5.4nonevsQwen3 Coder Nextmedium