ナビゲーション
AI BENCHY
比較する チャート
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: GPT-5 Nano

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-05

指標 Inception: Mercury 2 none リリース: 2026-02-24 OpenAI: GPT-5 Nano medium リリース: 2025-08-07
順位 #50 #34
平均スコア 34 57
一貫性 89 68
結果あたりのコスト 0.147 0.829
合計コスト $0.006 $0.058
応答時間(平均) 594ms 51.74s
応答時間(最大) 1.27s 204.02s
応答時間(合計) 8.91s 413.95s
正解テスト
試行ごとの合格率 33.3% 64.4%
不安定なテスト 2 6
出力トークン 1,144 4,184
推論トークン 0 137,472

スコア上位モデル

応答時間(平均)

スコア vs 総コスト

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 0.0% 0 466ms 274 0
OpenAI: GPT-5 Nano 70 100 66.7% 0 37.73s 1,107 19,968
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 0.0% 0 606ms 131 0
OpenAI: GPT-5 Nano 100 100 100.0% 0 65.96s 578 17,984
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 55 59 83.3% 1 667ms 180 0
OpenAI: GPT-5 Nano 100 17 50.0% 2 21.42s 453 10,560
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 40 72 44.4% 1 534ms 46 0
OpenAI: GPT-5 Nano 40 44 55.6% 2 204.02s 237 64,448
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 55 100 50.0% 0 551ms 82 0
OpenAI: GPT-5 Nano 90 68 83.3% 1 11.90s 382 4,096
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 0.0% 0 533ms 234 0
OpenAI: GPT-5 Nano 40 72 44.4% 1 19.81s 869 13,440
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 100.0% 0 1.27s 197 0
OpenAI: GPT-5 Nano 100 100 100.0% 0 33.30s 558 6,976

クイック比較

比較ペアを切り替え