Navigation
AI BENCHY
Advertise here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs Xiaomi: MiMo-V2.5-Pro

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-05-08

Metrik Claude Opus 4.7 Claude Opus 4.7 medium Veröffentlichung: 2026-04-16 MiMo-V2.5-Pro MiMo-V2.5-Pro medium Veröffentlichung: 2026-04-22
Punktzahl 8.9 8.1
Rang #3 #18
Zuverlässigkeit 10.0 10.0
Konsistenz 10.0 9.2
Korrekte Tests
Erfolgsquote pro Versuch 84.2% 74.1%
Instabile Tests 0 2
Gesamtläufe 57 54
Kosten pro Ergebnis 2.802 1.661
Gesamtkosten $0.449 $0.200
Eingabepreis $5.000 / 1M $1.000 / 1M
Ausgabepreis $25.000 / 1M $3.000 / 1M
Ausgabe-Token 5,399 2,790
Denk-Token 1,341 52,001
Antwortzeit (Durchschnitt) 3.46s 16.23s
Antwortzeit (Maximum) 21.45s 84.22s
Antwortzeit (Gesamt) 62.29s 292.10s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 1.85s 348 0
MiMo-V2.5-Pro 10.0 10.0 100.0% 0 3.26s 323 1,179
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 6.41s 1,141 257
MiMo-V2.5-Pro 10.0 10.0 100.0% 0 32.58s 543 7,485
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 21.45s 2,369 1,084
MiMo-V2.5-Pro 10.0 10.0 100.0% 0 53.36s 348 11,870
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.37s 324 0
MiMo-V2.5-Pro 7.3 5.8 83.3% 1 18.81s 260 8,383
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.17s 51 0
MiMo-V2.5-Pro 5.3 10.0 33.3% 0 37.87s 275 17,023
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.87s 256 0
MiMo-V2.5-Pro 5.5 10.0 0.0% 0 4.02s 155 163
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.57s 114 0
MiMo-V2.5-Pro 9.9 10.0 100.0% 0 2.77s 82 803
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.51s 399 0
MiMo-V2.5-Pro 6.7 7.9 55.6% 1 5.16s 493 2,187
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.17s 373 0
MiMo-V2.5-Pro 10.0 10.0 100.0% 0 16.87s 311 2,908
Allgemeinwissen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 3.0 10.0 0.0% 0 2.25s 24 0
MiMo-V2.5-Pro - - - - - - - -

Schnellvergleich

Vergleichspaar wechseln