AI BENCHY Compare
OpenAI: GPT-5.4 vs Qwen: Qwen3 Coder Next
Vergleichen:
Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-05
| Metrik | OpenAI: GPT-5.4 none Veröffentlichung: 2026-03-05 | Qwen: Qwen3 Coder Next medium Veröffentlichung: 2026-02-03 |
|---|---|---|
| Rang | #44 | #51 |
| Ø-Score | 46 | 33 |
| Konsistenz | 89 | 95 |
| Kosten pro Ergebnis | 1.496 | 0.224 |
| Gesamtkosten | $0.090 | $0.007 |
| Antwortzeit (Durchschnitt) | 1.46s | 13.77s |
| Antwortzeit (Maximum) | 2.89s | 81.80s |
| Antwortzeit (Gesamt) | 21.86s | 123.93s |
| Korrekte Tests | ||
| Erfolgsquote pro Versuch | 44.4% | 24.4% |
| Instabile Tests | 2 | 1 |
| Ausgabe-Token | 1,635 | 2,793 |
| Denk-Token | 0 | 0 |
Antwortzeit (Durchschnitt)
Score vs. Gesamtkosten
Ø-Score vs Antwortzeit (Durchschnitt)
Kategorieaufschlüsselung
| Anti-KI-Tricks | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 100 | 73 | 11.1% | 1 | 1.41s | 388 | 0 | |
| Qwen: Qwen3 Coder Next | 13 | 75 | 22.2% | 1 | 15.28s | 1,246 | 0 |
| Kombiniert | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 100 | 100 | 0.0% | 0 | 2.89s | 291 | 0 | |
| Qwen: Qwen3 Coder Next | 100 | 100 | 0.0% | 0 | 4.28s | 317 | 0 |
| Datenanalyse und -extraktion | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 99 | 100 | 100.0% | 0 | 1.04s | 222 | 0 | |
| Qwen: Qwen3 Coder Next | 54 | 100 | 50.0% | 0 | 81.80s | 246 | 0 |
| Domänenspezifisch | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 40 | 72 | 44.4% | 1 | 1.07s | 50 | 0 | |
| Qwen: Qwen3 Coder Next | 40 | 100 | 33.3% | 0 | 638ms | 25 | 0 |
| Befolgung von Anweisungen | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 55 | 100 | 50.0% | 0 | 1.07s | 81 | 0 | |
| Qwen: Qwen3 Coder Next | 45 | 100 | 0.0% | 0 | 7.34s | 63 | 0 |
| Puzzle Solving | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 40 | 98 | 33.3% | 0 | 1.52s | 357 | 0 | |
| Qwen: Qwen3 Coder Next | 100 | 100 | 0.0% | 0 | 2.30s | 641 | 0 |
| Werkzeugaufrufe | Punktzahl | Konsistenz | Erfolgsquote pro Versuch | Instabile Tests | Korrekte Tests | Antwortzeit (Durchschnitt) | Ausgabe-Token | Denk-Token |
|---|---|---|---|---|---|---|---|---|
| OpenAI: GPT-5.4 | 100 | 100 | 100.0% | 0 | 2.75s | 246 | 0 | |
| Qwen: Qwen3 Coder Next | 100 | 100 | 100.0% | 0 | 2.64s | 255 | 0 |
Schnellvergleich
Vergleichspaar wechseln
Mercury 2nonevsQwen3 Coder NextmediumMiniMax M2.5mediumvsGPT-5.4noneQwen3 Coder NextmediumvsGrok 4.1 FastnoneKimi K2.5nonevsQwen3 Coder NextmediumQwen3 Coder NextmediumvsMiMo-V2-FlashnoneQwen3 Coder NextmediumvsGLM 4.7 FlashnoneLFM2-24B-A2BnonevsQwen3 Coder NextmediumGPT-4o-mininonevsQwen3 Coder NextmediumMercury 2mediumvsGPT-5.4noneTrinity Large Preview (free)noneKostenlos verfügbarvsQwen3 Coder NextmediumGPT-5.4nonevsQwen3.5-35B-A3BmediumGPT-5.4nonevsGLM 4.7 Flashmedium