Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Mistral: Mistral Small 4 vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-17

Metrik Mistral Small 4 Mistral Small 4 medium Veröffentlichung: 2026-03-16 GLM 5 Turbo GLM 5 Turbo none Veröffentlichung: 2026-03-15
Rang #55 #56
Punktzahl 5.6 5.6
Konsistenz 7.0 9.5
Kosten pro Ergebnis 0.502 0.470
Gesamtkosten $0.026 $0.029
Korrekte Tests
Erfolgsquote pro Versuch 49.0% 37.3%
Instabile Tests 6 1
Gesamtläufe 51 51
Ausgabe-Token 12,288 1,270
Denk-Token 28,112 0
Antwortzeit (Durchschnitt) 4.18s 2.89s
Antwortzeit (Maximum) 25.25s 8.21s
Antwortzeit (Gesamt) 71.03s 49.05s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 5.6 3.8 66.7% 3 2.67s 4,055 4,778
GLM 5 Turbo 3.0 10.0 0.0% 0 2.84s 382 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 3.0 10.0 0.0% 0 25.25s 2,612 10,700
GLM 5 Turbo 3.0 10.0 0.0% 0 4.89s 144 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 7.3 5.9 83.3% 1 1.23s 335 723
GLM 5 Turbo 10.0 10.0 100.0% 0 2.47s 204 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 5.3 7.2 44.4% 1 6.11s 2,621 6,904
GLM 5 Turbo 5.3 10.0 33.3% 0 1.97s 25 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 4.8 10.0 0.0% 0 2.05s 821 828
GLM 5 Turbo 4.2 9.9 0.0% 0 2.18s 48 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 7.3 5.8 83.3% 1 1.38s 540 1,031
GLM 5 Turbo 6.5 10.0 50.0% 0 2.13s 65 0
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 3.4 9.7 0.0% 0 2.00s 983 2,338
GLM 5 Turbo 5.5 7.4 44.4% 1 2.43s 180 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mistral Small 4 10.0 10.0 100.0% 0 3.50s 321 810
GLM 5 Turbo 10.0 10.0 100.0% 0 8.21s 222 0

Schnellvergleich

Vergleichspaar wechseln