Navigation
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

ByteDance Seed: Seed-2.0-Lite vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-05-08

Metrik Seed-2.0-Lite Seed-2.0-Lite medium Veröffentlichung: 2026-02-14 GLM 5 Turbo GLM 5 Turbo medium Veröffentlichung: 2026-03-15
Punktzahl 8.3 8.1
Rang #11 #20
Zuverlässigkeit 10.0 6.7
Konsistenz 8.9 8.4
Korrekte Tests
Erfolgsquote pro Versuch 79.0% 77.2%
Instabile Tests 3 4
Gesamtläufe 57 57
Kosten pro Ergebnis 0.958 1.438
Gesamtkosten $0.125 $0.187
Eingabepreis $0.250 / 1M $1.200 / 1M
Ausgabepreis $2.000 / 1M $4.000 / 1M
Ausgabe-Token 3,266 12,217
Denk-Token 54,082 40,252
Antwortzeit (Durchschnitt) 31.32s 18.85s
Antwortzeit (Maximum) 168.71s 194.23s
Antwortzeit (Gesamt) 595.04s 358.15s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 8.3 10.0 75.0% 0 17.99s 996 7,142
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 74.49s 436 7,319
GLM 5 Turbo 10.0 10.0 100.0% 0 12.26s 332 3,301
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 37.67s 506 4,299
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 9.07s 246 1,742
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 5.9 7.2 55.6% 1 88.74s 15 23,897
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 6.7 3.6 66.7% 1 18.25s 304 1,620
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 7.26s 71 1,480
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 9.0 7.9 88.9% 1 11.03s 461 3,532
GLM 5 Turbo 8.7 7.9 77.8% 1 5.44s 315 2,702
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 12.38s 222 1,011
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446
Allgemeinwissen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 3.0 10.0 0.0% 0 48.32s 9 2,040
GLM 5 Turbo 3.0 10.0 0.0% 0 40.17s 20 1,319

Schnellvergleich

Vergleichspaar wechseln