Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

ByteDance Seed: Seed-2.0-Lite vs Z.ai: GLM 5 Turbo

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-03-17

Metrik Seed-2.0-Lite Seed-2.0-Lite medium Veröffentlichung: 2026-02-14 GLM 5 Turbo GLM 5 Turbo medium Veröffentlichung: 2026-03-15
Rang #5 #16
Punktzahl 8.5 8.0
Konsistenz 8.8 7.9
Kosten pro Ergebnis 0.873 1.509
Gesamtkosten $0.105 $0.166
Korrekte Tests
Erfolgsquote pro Versuch 82.4% 76.5%
Instabile Tests 3 5
Gesamtläufe 51 51
Ausgabe-Token 2,821 11,865
Denk-Token 44,723 35,632
Antwortzeit (Durchschnitt) 27.78s 17.98s
Antwortzeit (Maximum) 168.71s 194.23s
Antwortzeit (Gesamt) 472.24s 305.72s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 8.3 10.0 75.0% 0 17.99s 996 7,142
GLM 5 Turbo 10.0 10.0 100.0% 0 4.82s 362 3,137
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 37.67s 506 4,299
GLM 5 Turbo 10.0 10.0 100.0% 0 13.88s 390 2,037
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 9.07s 246 1,742
GLM 5 Turbo 10.0 10.0 100.0% 0 6.19s 577 3,632
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 5.9 7.2 55.6% 1 88.74s 15 23,897
GLM 5 Turbo 2.9 4.4 22.2% 2 71.07s 9,665 19,279
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 6.7 3.6 66.7% 1 18.25s 304 1,620
GLM 5 Turbo 6.1 3.1 66.7% 1 10.05s 60 2,216
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 7.26s 71 1,480
GLM 5 Turbo 10.0 10.0 100.0% 0 5.38s 255 2,183
Puzzle Solving Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 9.0 7.9 88.9% 1 11.03s 461 3,532
GLM 5 Turbo 7.3 5.8 55.6% 2 5.44s 315 2,702
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Seed-2.0-Lite 10.0 10.0 100.0% 0 12.38s 222 1,011
GLM 5 Turbo 10.0 10.0 100.0% 0 9.84s 241 446

Schnellvergleich

Vergleichspaar wechseln