Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-30

Metrik Mercury 2 Mercury 2 medium Veröffentlichung: 2026-02-24 GLM 5 Turbo GLM 5 Turbo none Veröffentlichung: 2026-03-15
Punktzahl 6.5 5.5
Rang #70 #101
Zuverlässigkeit k. A. k. A.
Konsistenz 8.6 9.2
Korrekte Tests
Erfolgsquote pro Versuch 53.7% 37.0%
Instabile Tests 3 2
Gesamtläufe 54 54
Kosten pro Ergebnis 0.580 0.518
Gesamtkosten $0.047 $0.032
Eingabepreis $0.250 / 1M $1.200 / 1M
Ausgabepreis $0.750 / 1M $4.000 / 1M
Ausgabe-Token 3,972 1,775
Denk-Token 48,333 0
Antwortzeit (Durchschnitt) 2.21s 2.94s
Antwortzeit (Maximum) 14.63s 8.21s
Antwortzeit (Gesamt) 37.51s 52.98s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 6.9 9.9 50.0% 0 1.12s 2,546 2,609
GLM 5 Turbo 3.0 10.0 0.0% 0 2.84s 382 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.53s 249 2,213
GLM 5 Turbo 5.3 3.4 33.3% 1 3.93s 505 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 3.28s 268 4,887
GLM 5 Turbo 3.0 10.0 0.0% 0 4.89s 144 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 7.3 5.9 83.3% 1 1.11s 183 1,656
GLM 5 Turbo 10.0 10.0 100.0% 0 2.47s 204 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 2.9 7.2 11.1% 1 6.48s 41 30,754
GLM 5 Turbo 5.3 10.0 33.3% 0 1.97s 25 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 4.8 10.0 0.0% 0 821ms 137 542
GLM 5 Turbo 4.2 9.9 0.0% 0 2.18s 48 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.07s 14 958
GLM 5 Turbo 6.5 10.0 50.0% 0 2.13s 65 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 3.9 7.5 22.2% 1 934ms 354 2,758
GLM 5 Turbo 5.5 7.4 44.4% 1 2.43s 180 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.89s 180 1,956
GLM 5 Turbo 10.0 10.0 100.0% 0 8.21s 222 0

Schnellvergleich

Vergleichspaar wechseln