Navegação
AI BENCHY
Comparar Gráficos
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5.4

Comparar:

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-03-05

Métrica Inception: Mercury 2 medium Lançamento: 2026-02-24 OpenAI: GPT-5.4 none Lançamento: 2026-03-05
Posição #35 #44
Pontuação média 5.4 4.6
Testes corretos
Consistência 8.3 8.9
Custo por resultado 0.622 1.496
Custo total $0.044 $0.090
Taxa de acerto por tentativa 57.8% 44.4%
Testes instáveis 3 2
common.totalAttempts 45 (15 x 3) 45 (15 x 3)
Tokens de saída 3,571 1,635
Tokens de raciocínio 45,379 0
Tempo de resposta (médio) 2.47s 1.46s
Tempo de resposta (máx.) 14.63s 2.89s
Tempo de resposta (total) 34.56s 21.86s

Melhores modelos por pontuação

Tempo de resposta (médio)

Pontuação vs custo total

Pontuação média vs Tempo de resposta (médio)

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 7.3 9.8 66.7% 0 1.30s 2,531 2,410
OpenAI: GPT-5.4 10.0 7.3 11.1% 1 1.41s 388 0
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 10.0 100.0% 0 3.28s 268 4,887
OpenAI: GPT-5.4 10.0 10.0 0.0% 0 2.89s 291 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 5.5 5.9 83.3% 1 1.11s 183 1,656
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 1.04s 222 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 7.2 11.1% 1 6.48s 41 30,754
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 1.07s 50 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 10.0 100.0% 0 1.07s 14 958
OpenAI: GPT-5.4 5.5 10.0 50.0% 0 1.07s 81 0
Puzzle Solving Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 1.7 7.5 22.2% 1 934ms 354 2,758
OpenAI: GPT-5.4 4.0 9.8 33.3% 0 1.52s 357 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 10.0 100.0% 0 1.89s 180 1,956
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 2.75s 246 0

Comparação rápida

Trocar par de comparação