Navigation
AI BENCHY
Vergleichen Diagramme
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5 Mini

Vergleichen:

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-05

Metrik Inception: Mercury 2 none Veröffentlichung: 2026-02-24 OpenAI: GPT-5 Mini medium Veröffentlichung: 2025-08-07
Rang #50 #31
Ø-Score 34 61
Konsistenz 89 89
Kosten pro Ergebnis 0.147 1.401
Gesamtkosten $0.006 $0.113
Antwortzeit (Durchschnitt) 594ms 25.92s
Antwortzeit (Maximum) 1.27s 88.15s
Antwortzeit (Gesamt) 8.91s 388.79s
Korrekte Tests
Erfolgsquote pro Versuch 33.3% 62.2%
Instabile Tests 2 2
Ausgabe-Token 1,144 5,477
Denk-Token 0 46,912

Top-Modelle nach Score

Antwortzeit (Durchschnitt)

Score vs. Gesamtkosten

Ø-Score vs Antwortzeit (Durchschnitt)

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 0.0% 0 466ms 274 0
OpenAI: GPT-5 Mini 70 96 66.7% 0 16.45s 1,645 5,824
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 0.0% 0 606ms 131 0
OpenAI: GPT-5 Mini 100 100 100.0% 0 88.15s 754 11,520
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 55 59 83.3% 1 667ms 180 0
OpenAI: GPT-5 Mini 99 100 100.0% 0 12.58s 453 3,200
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 40 72 44.4% 1 534ms 46 0
OpenAI: GPT-5 Mini 100 72 22.2% 1 44.63s 293 14,016
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 55 100 50.0% 0 551ms 82 0
OpenAI: GPT-5 Mini 75 66 83.3% 1 15.66s 318 4,992
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 0.0% 0 533ms 234 0
OpenAI: GPT-5 Mini 43 98 33.3% 0 14.09s 1,527 5,760
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 100.0% 0 1.27s 197 0
OpenAI: GPT-5 Mini 100 100 100.0% 0 18.64s 487 1,600

Schnellvergleich

Vergleichspaar wechseln