Navigation
AI BENCHY
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs Google: Gemini 3.1 Pro Preview

Benchmarks aus AI BENCHY-Test-Suites generiert am: 2026-04-16

Metrik Claude Opus 4.7 Claude Opus 4.7 medium Veröffentlichung: 2026-04-16 Gemini 3.1 Pro Preview Gemini 3.1 Pro Preview medium Veröffentlichung: 2026-02-19
Punktzahl 9.2 9.6
Rang #3 #2
Konsistenz 10.0 10.0
Korrekte Tests
Erfolgsquote pro Versuch 88.9% 94.4%
Instabile Tests 0 0
Gesamtläufe 54 54
Kosten pro Ergebnis 2.790 3.400
Gesamtkosten $0.447 $0.578
Eingabepreis $5.000 / 1M $2.000 / 1M
Ausgabepreis $25.000 / 1M $12.000 / 1M
Ausgabe-Token 5,375 1,932
Denk-Token 1,341 40,542
Antwortzeit (Durchschnitt) 3.53s 15.96s
Antwortzeit (Maximum) 21.45s 40.61s
Antwortzeit (Gesamt) 60.03s 175.52s

Top-Modelle nach Score

Score vs. Gesamtkosten

Antwortzeit (Durchschnitt)

Punktzahl vs Antwortzeit (Durchschnitt)

Gesamte Ausgabe-Token

Punktzahl vs Gesamte Ausgabe-Token

Kategorieaufschlüsselung

Anti-KI-Tricks Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 8.3 10.0 75.0% 0 1.85s 348 0
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.90s 112 3,218
Programmierung Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 6.41s 1,141 257
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 19.88s 405 4,201
Kombiniert Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 21.45s 2,369 1,084
Gemini 3.1 Pro Preview 9.5 10.0 100.0% 0 40.61s 432 9,281
Datenanalyse und -extraktion Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.37s 324 0
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.72s 279 3,904
Domänenspezifisch Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 7.7 10.0 66.7% 0 1.17s 51 0
Gemini 3.1 Pro Preview 7.7 10.0 66.7% 0 32.73s 18 12,424
Allgemeine Intelligenz Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.87s 256 0
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 11.77s 108 1,179
Befolgung von Anweisungen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 1.57s 114 0
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 9.56s 72 2,236
Rätsellösen Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 2.51s 399 0
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.15s 232 3,117
Werkzeugaufrufe Punktzahl Konsistenz Erfolgsquote pro Versuch Instabile Tests Korrekte Tests Antwortzeit (Durchschnitt) Ausgabe-Token Denk-Token
Claude Opus 4.7 10.0 10.0 100.0% 0 4.17s 373 0
Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 23.15s 274 982

Schnellvergleich

Vergleichspaar wechseln