Navigation
AI BENCHY
Vergleichen Diagramme
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5 Nano

Vergleichen:

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-05

Metrik Inception: Mercury 2 none Veröffentlichung: 2026-02-24 OpenAI: GPT-5 Nano medium Veröffentlichung: 2025-08-07
Rang #50 #34
Ø-Score 34 57
Konsistenz 89 68
Kosten pro Ergebnis 0.147 0.829
Gesamtkosten $0.006 $0.058
Antwortzeit (Durchschnitt) 594ms 51.74s
Antwortzeit (Maximum) 1.27s 204.02s
Antwortzeit (Gesamt) 8.91s 413.95s
Korrekte Tests
Erfolgsquote pro Versuch 33.3% 64.4%
Instabile Tests 2 6
Ausgabe-Token 1,144 4,184
Denk-Token 0 137,472

Top-Modelle nach Score

Antwortzeit (Durchschnitt)

Score vs. Gesamtkosten

Ø-Score vs Antwortzeit (Durchschnitt)

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 0.0% 0 466ms 274 0
OpenAI: GPT-5 Nano 70 100 66.7% 0 37.73s 1,107 19,968
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 0.0% 0 606ms 131 0
OpenAI: GPT-5 Nano 100 100 100.0% 0 65.96s 578 17,984
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 55 59 83.3% 1 667ms 180 0
OpenAI: GPT-5 Nano 100 17 50.0% 2 21.42s 453 10,560
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 40 72 44.4% 1 534ms 46 0
OpenAI: GPT-5 Nano 40 44 55.6% 2 204.02s 237 64,448
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 55 100 50.0% 0 551ms 82 0
OpenAI: GPT-5 Nano 90 68 83.3% 1 11.90s 382 4,096
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 0.0% 0 533ms 234 0
OpenAI: GPT-5 Nano 40 72 44.4% 1 19.81s 869 13,440
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Inception: Mercury 2 100 100 100.0% 0 1.27s 197 0
OpenAI: GPT-5 Nano 100 100 100.0% 0 33.30s 558 6,976

Schnellvergleich

Vergleichspaar wechseln