AI BENCHY
Your ad here

AI BENCHY Kategorie

Domänenspezifisch-Ranking

Sieh, welche KI-Modelle bei Domänenspezifisch am besten abschneiden, welche zuverlässig bleiben und wo die größten Unterschiede liegen. Sortieren nach: Korrekte Tests ↓.

Angezeigte Modelle

15

Durchschnittlicher Wert für Domänenspezifisch-Score

4.8

Rang Modell Unternehmen Domänenspezifisch-Score Punktzahl Korrekte Tests Antwortzeit (Durchschnitt)
#1 Gemini 3 Flash Preview medium Google 10.0 10.0 3/3 21.1s
#2 Gemini 3.1 Pro Preview medium Google 7.7 9.6 2/3 32.7s
#3 Claude Opus 4.7 medium Anthropic 7.7 9.2 2/3 1.17s
#4 Claude Opus 4.7 none Anthropic 7.7 9.2 2/3 1.19s
#14 Gemma 4 31B medium Google 7.7 8.3 2/3 38.5s
#21 Gemini 3 Flash Preview none Google 7.7 8.1 2/3 963ms
#42 Claude Sonnet 4.6 none Anthropic 7.7 7.4 2/3 3.54s
#48 Gemma 4 31B none Google 7.7 6.9 2/3 3.22s
#59 Qwen3.5-Flash none Qwen 7.7 6.2 2/3 905ms
#63 Qwen3.5-35B-A3B none Qwen 7.7 6.1 2/3 485ms
#74 GLM 4.7 Flash none Z.ai 7.7 5.6 2/3 744ms
#5 Gemini 3 Flash Preview low Google 5.3 8.8 1/3 8.05s
#6 Seed-2.0-Lite medium Bytedance Seed 5.9 8.6 1/3 88.7s
#7 GPT-5.3-Codex medium OpenAI 5.9 8.6 1/3 64.3s
#8 Qwen3.5 Plus 2026-02-15 medium Qwen 5.3 8.5 1/3 17.5s

Top-Modelle nach Domänenspezifisch-Score

Domänenspezifisch-Score vs. Gesamtkosten

Top-Modelle nach Antwortzeit (Durchschnitt)