Navegação
AI BENCHY
Comparar Gráficos
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-4o-mini

Comparar:

Benchmarks gerados a partir das suítes de teste do AI BENCHY em: 2026-03-05

Métrica Inception: Mercury 2 medium Lançamento: 2026-02-24 OpenAI: GPT-4o-mini none Lançamento: 2024-07-18
Posição #35 #46
Pontuação média 5.4 4.1
Testes corretos
Consistência 8.3 10.0
Custo por resultado 0.622 0.111
Custo total $0.044 $0.005
Taxa de acerto por tentativa 57.8% 26.7%
Testes instáveis 3 0
common.totalAttempts 45 (15 x 3) 45 (15 x 3)
Tokens de saída 3,571 1,528
Tokens de raciocínio 45,379 0
Tempo de resposta (médio) 2.47s 2.21s
Tempo de resposta (máx.) 14.63s 7.58s
Tempo de resposta (total) 34.56s 17.69s

Melhores modelos por pontuação

Tempo de resposta (médio)

Pontuação vs custo total

Pontuação média vs Tempo de resposta (médio)

Detalhamento por categoria

Truques anti-IA Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 7.3 9.8 66.7% 0 1.30s 2,531 2,410
OpenAI: GPT-4o-mini 4.0 10.0 33.3% 0 1.83s 180 0
Combinado Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 10.0 100.0% 0 3.28s 268 4,887
OpenAI: GPT-4o-mini 10.0 10.0 0.0% 0 7.58s 568 0
Análise e extração de dados Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 5.5 5.9 83.3% 1 1.11s 183 1,656
OpenAI: GPT-4o-mini 9.9 10.0 100.0% 0 1.27s 183 0
Específico do domínio Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 7.2 11.1% 1 6.48s 41 30,754
OpenAI: GPT-4o-mini 10.0 10.0 0.0% 0 637ms 15 0
Seguimento de instruções Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 10.0 100.0% 0 1.07s 14 958
OpenAI: GPT-4o-mini 4.5 10.0 0.0% 0 1.27s 69 0
Puzzle Solving Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 1.7 7.5 22.2% 1 934ms 354 2,758
OpenAI: GPT-4o-mini 2.3 10.0 0.0% 0 1.30s 308 0
Chamada de ferramentas Pontuação Consistência Taxa de acerto por tentativa Testes instáveis Testes corretos Tempo de resposta (médio) Tokens de saída Tokens de raciocínio
Inception: Mercury 2 10.0 10.0 100.0% 0 1.89s 180 1,956
OpenAI: GPT-4o-mini 10.0 10.0 100.0% 0 2.51s 205 0

Comparação rápida

Trocar par de comparação