Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Mistral: Mistral Small 4 vs Z.ai: GLM 5.1

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-29

Metrik Mistral Small 4 Mistral Small 4 none Veröffentlichung: 2026-03-16 GLM 5.1 GLM 5.1 none Veröffentlichung: 2026-04-07
Punktzahl 5.2 5.6
Rang #109 #98
Zuverlässigkeit k. A. k. A.
Konsistenz 9.5 8.2
Korrekte Tests
Erfolgsquote pro Versuch 31.5% 37.0%
Instabile Tests 1 4
Gesamtläufe 54 54
Kosten pro Ergebnis 0.118 1.046
Gesamtkosten $0.006 $0.053
Eingabepreis $0.150 / 1M $1.050 / 1M
Ausgabepreis $0.600 / 1M $3.500 / 1M
Ausgabe-Token 2,207 3,720
Denk-Token 0 0
Antwortzeit (Durchschnitt) 665ms 4.33s
Antwortzeit (Maximum) 1.72s 32.57s
Antwortzeit (Gesamt) 11.97s 78.02s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 3.4 7.9 16.7% 1 395ms 182 0
GLM 5.1 4.0 6.3 25.0% 2 2.11s 305 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 4.5 9.0 0.0% 0 1.28s 583 0
GLM 5.1 5.1 9.1 0.0% 0 9.79s 501 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 3.0 10.0 0.0% 0 1.72s 496 0
GLM 5.1 2.8 2.1 33.3% 1 32.57s 2,129 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 10.0 10.0 100.0% 0 822ms 261 0
GLM 5.1 10.0 10.0 100.0% 0 1.08s 204 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 5.3 10.0 33.3% 0 367ms 28 0
GLM 5.1 2.9 7.2 11.1% 1 1.99s 24 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 4.0 10.0 0.0% 0 729ms 205 0
GLM 5.1 5.0 10.0 0.0% 0 790ms 39 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 6.5 10.0 50.0% 0 380ms 69 0
GLM 5.1 8.3 10.0 50.0% 0 1.58s 66 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 3.1 9.9 0.0% 0 589ms 170 0
GLM 5.1 5.7 10.0 33.3% 0 1.48s 152 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 10.0 10.0 100.0% 0 1.40s 213 0
GLM 5.1 10.0 10.0 100.0% 0 10.68s 300 0

Schnellvergleich

Vergleichspaar wechseln