Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Laguna M.1 vs Z.ai: GLM 5

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-29

Metrik Laguna M.1 Laguna M.1 medium Veröffentlichung: 2026-04-28 Kostenlos verfügbar GLM 5 GLM 5 none Veröffentlichung: 2026-02-12
Punktzahl 6.3 6.6
Rang #74 #70
Zuverlässigkeit 10.0 k. A.
Konsistenz 8.6 9.6
Korrekte Tests
Erfolgsquote pro Versuch 53.7% 51.9%
Instabile Tests 3 1
Gesamtläufe 54 54
Kosten pro Ergebnis 0.000 0.217
Gesamtkosten $0.000 $0.020
Eingabepreis $0.000 / 1M $0.600 / 1M
Ausgabepreis $0.000 / 1M $2.080 / 1M
Ausgabe-Token 63,822 1,959
Denk-Token 0 0
Antwortzeit (Durchschnitt) 13.90s 4.23s
Antwortzeit (Maximum) 53.14s 11.07s
Antwortzeit (Gesamt) 250.28s 46.51s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 6.6 10.0 50.0% 0 9.15s 7,839 0
GLM 5 4.8 10.0 25.0% 0 2.37s 275 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 4.3 1.1 66.7% 1 35.61s 14,327 0
GLM 5 5.6 3.5 33.3% 1 8.84s 408 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 3.0 10.0 0.0% 0 53.14s 12,272 0
GLM 5 3.0 10.0 0.0% 0 4.98s 406 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 10.0 10.0 100.0% 0 4.93s 2,296 0
GLM 5 10.0 10.0 100.0% 0 5.78s 203 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 5.3 7.2 44.4% 1 24.14s 19,020 0
GLM 5 3.0 10.0 0.0% 0 2.24s 19 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 4.1 10.0 0.0% 0 6.86s 1,294 0
GLM 5 10.0 10.0 100.0% 0 3.27s 103 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 10.0 10.0 100.0% 0 4.30s 1,626 0
GLM 5 10.0 10.0 100.0% 0 1.48s 61 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 3.6 7.2 22.2% 1 6.97s 3,978 0
GLM 5 7.7 10.0 66.7% 0 2.05s 264 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Laguna M.1 10.0 10.0 100.0% 0 6.31s 1,170 0
GLM 5 10.0 10.0 100.0% 0 11.07s 220 0

Schnellvergleich

Vergleichspaar wechseln