Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

OpenAI: GPT-5.4 Mini vs Laguna M.1

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-29

Metrik GPT-5.4 Mini GPT-5.4 Mini none Veröffentlichung: 2026-03-17 Laguna M.1 Laguna M.1 none Veröffentlichung: 2026-04-28 Kostenlos verfügbar
Punktzahl 5.1 5.1
Rang #112 #117
Zuverlässigkeit k. A. 9.9
Konsistenz 8.6 8.7
Korrekte Tests
Erfolgsquote pro Versuch 35.2% 33.3%
Instabile Tests 3 3
Gesamtläufe 54 54
Kosten pro Ergebnis 0.630 0.000
Gesamtkosten $0.032 $0.000
Eingabepreis $0.750 / 1M $0.000 / 1M
Ausgabepreis $4.500 / 1M $0.000 / 1M
Ausgabe-Token 2,418 2,870
Denk-Token 0 0
Antwortzeit (Durchschnitt) 1.17s 2.79s
Antwortzeit (Maximum) 2.52s 15.42s
Antwortzeit (Gesamt) 21.01s 50.24s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 3.1 8.1 8.3% 1 929ms 654 0
Laguna M.1 3.4 7.9 16.7% 1 1.23s 485 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 10.0 10.0 100.0% 0 1.19s 333 0
Laguna M.1 7.5 3.8 66.7% 1 2.93s 543 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 3.0 10.0 0.0% 0 2.52s 298 0
Laguna M.1 3.0 10.0 0.0% 0 4.32s 622 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 10.0 10.0 100.0% 0 1.30s 222 0
Laguna M.1 10.0 10.0 100.0% 0 3.37s 246 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 3.5 4.4 33.3% 2 937ms 88 0
Laguna M.1 3.6 7.2 22.2% 1 5.50s 33 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 4.8 10.0 0.0% 0 1.82s 174 0
Laguna M.1 4.0 10.0 0.0% 0 3.08s 212 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 6.3 10.0 50.0% 0 728ms 101 0
Laguna M.1 6.3 10.0 50.0% 0 683ms 80 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 5.4 10.0 33.3% 0 860ms 293 0
Laguna M.1 3.2 10.0 0.0% 0 951ms 340 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-5.4 Mini 3.0 10.0 0.0% 0 2.32s 255 0
Laguna M.1 10.0 10.0 100.0% 0 7.54s 309 0

Schnellvergleich

Vergleichspaar wechseln