Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: gpt-oss-120b

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-11

Metrik Mercury 2 Mercury 2 medium Veröffentlichung: 2026-02-24 gpt-oss-120b gpt-oss-120b none Veröffentlichung: 2025-08-05 Kostenlos verfügbar
Punktzahl 6.5 5.2
Rang #51 #79
Konsistenz 8.6 7.9
Korrekte Tests
Erfolgsquote pro Versuch 53.7% 38.9%
Instabile Tests 3 5
Gesamtläufe 54 54
Kosten pro Ergebnis 0.580 0.221
Gesamtkosten $0.047 $0.009
Eingabepreis $0.250 / 1M $0.039 / 1M
Ausgabepreis $0.750 / 1M $0.190 / 1M
Ausgabe-Token 3,972 44,652
Denk-Token 48,333 0
Antwortzeit (Durchschnitt) 2.21s 11.96s
Antwortzeit (Maximum) 14.63s 68.97s
Antwortzeit (Gesamt) 37.51s 179.34s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 6.9 9.9 50.0% 0 1.12s 2,546 2,609
gpt-oss-120b 6.6 8.0 58.3% 1 6.03s 4,867 0
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.53s 249 2,213
gpt-oss-120b 4.3 1.1 66.7% 1 9.57s 3,232 0
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 3.28s 268 4,887
gpt-oss-120b 3.0 10.0 0.0% 0 0ms 0 0
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 7.3 5.9 83.3% 1 1.11s 183 1,656
gpt-oss-120b 6.5 10.0 50.0% 0 7.12s 598 0
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 2.9 7.2 11.1% 1 6.48s 41 30,754
gpt-oss-120b 3.0 10.0 0.0% 0 34.98s 29,483 0
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 4.8 10.0 0.0% 0 821ms 137 542
gpt-oss-120b 4.6 10.0 0.0% 0 2.83s 586 0
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.07s 14 958
gpt-oss-120b 8.4 6.9 83.3% 1 5.10s 1,982 0
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 3.9 7.5 22.2% 1 934ms 354 2,758
gpt-oss-120b 4.5 4.8 44.5% 2 6.86s 3,904 0
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Mercury 2 10.0 10.0 100.0% 0 1.89s 180 1,956
gpt-oss-120b 3.0 10.0 0.0% 0 0ms 0 0

Schnellvergleich

Vergleichspaar wechseln