Navegação
AI BENCHY
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Anthropic: Claude Opus 4.7 vs DeepSeek: DeepSeek V4 Pro

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-04-24

Métrica Claude Opus 4.7 Claude Opus 4.7 medium Lançamento: 2026-04-16 DeepSeek V4 Pro DeepSeek V4 Pro high Lançamento: 2026-04-24
Pontuação 9.2 8.2
Posição #3 #20
Confiabilidade N/D N/D
Consistência 10.0 9.6
Testes corretos
Taxa de acerto por tentativa 88.9% 74.1%
Testes instáveis 0 1
Execuções totais 54 24
Custo por resultado 2.790 1.224
Custo total $0.447 $0.160
Preço de entrada $5.000 / 1M $1.740 / 1M
Preço de saída $25.000 / 1M $3.480 / 1M
Tokens de saída 5,375 671
Tokens de raciocínio 1,341 39,383
Tempo de resposta (médio) 3.53s 71.21s
Tempo de resposta (máx.) 21.45s 351.99s
Tempo de resposta (total) 60.03s 1281.73s

Melhores modelos por pontuação

Pontuação vs custo total

Tempo de resposta (médio)

Pontuação vs Tempo de resposta (médio)

Total de tokens de saída

Pontuação vs Total de tokens de saída

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 8.3 10.0 75.0% 0 1.85s 348 0
DeepSeek V4 Pro 8.3 10.0 75.0% 0 26.93s 70 2,008
Programação Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 6.41s 1,141 257
DeepSeek V4 Pro 10.0 10.0 100.0% 0 93.00s 82 2,808
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 21.45s 2,369 1,084
DeepSeek V4 Pro 10.0 10.0 100.0% 0 71.08s 134 2,163
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 2.37s 324 0
DeepSeek V4 Pro 10.0 10.0 100.0% 0 63.00s 67 1,071
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 7.7 10.0 66.7% 0 1.17s 51 0
DeepSeek V4 Pro 5.3 10.0 33.3% 0 202.56s 11 25,343
Inteligência geral Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 2.87s 256 0
DeepSeek V4 Pro 5.0 10.0 0.0% 0 26.96s 51 734
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 1.57s 114 0
DeepSeek V4 Pro 10.0 10.0 100.0% 0 14.60s 21 1,236
Resolução de quebra-cabeças Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 2.51s 399 0
DeepSeek V4 Pro 7.6 7.4 77.8% 1 69.69s 151 3,847
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Claude Opus 4.7 10.0 10.0 100.0% 0 4.17s 373 0
DeepSeek V4 Pro 10.0 10.0 100.0% 0 11.05s 84 173

Comparação rápida

Trocar par de comparação