Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

OpenAI: GPT-4o-mini vs Laguna M.1

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-29

Metrik GPT-4o-mini GPT-4o-mini none Veröffentlichung: 2024-07-18 Laguna M.1 Laguna M.1 medium Veröffentlichung: 2026-04-28 Kostenlos verfügbar
Punktzahl 4.9 6.3
Rang #119 #74
Zuverlässigkeit k. A. 10.0
Konsistenz 9.9 8.6
Korrekte Tests
Erfolgsquote pro Versuch 22.2% 53.7%
Instabile Tests 0 3
Gesamtläufe 54 54
Kosten pro Ergebnis 0.122 0.000
Gesamtkosten $0.005 $0.000
Eingabepreis $0.150 / 1M $0.000 / 1M
Ausgabepreis $0.600 / 1M $0.000 / 1M
Ausgabe-Token 1,947 63,822
Denk-Token 0 0
Antwortzeit (Durchschnitt) 2.00s 13.90s
Antwortzeit (Maximum) 7.58s 53.14s
Antwortzeit (Gesamt) 21.99s 250.28s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 4.8 10.0 25.0% 0 1.34s 186 0
Laguna M.1 6.6 10.0 50.0% 0 9.15s 7,839 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 3.0 8.7 0.0% 0 2.55s 347 0
Laguna M.1 4.3 1.1 66.7% 1 35.61s 14,327 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 3.0 10.0 0.0% 0 7.58s 568 0
Laguna M.1 3.0 10.0 0.0% 0 53.14s 12,272 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 10.0 10.0 100.0% 0 1.27s 183 0
Laguna M.1 10.0 10.0 100.0% 0 4.93s 2,296 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 3.0 10.0 0.0% 0 637ms 15 0
Laguna M.1 5.3 7.2 44.4% 1 24.14s 19,020 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 4.0 10.0 0.0% 0 909ms 66 0
Laguna M.1 4.1 10.0 0.0% 0 6.86s 1,294 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 4.8 10.0 0.0% 0 1.27s 69 0
Laguna M.1 10.0 10.0 100.0% 0 4.30s 1,626 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 3.7 10.0 0.0% 0 1.30s 308 0
Laguna M.1 3.6 7.2 22.2% 1 6.97s 3,978 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
GPT-4o-mini 10.0 10.0 100.0% 0 2.51s 205 0
Laguna M.1 10.0 10.0 100.0% 0 6.31s 1,170 0

Schnellvergleich

Vergleichspaar wechseln