ナビゲーション
AI BENCHY
比較する チャート
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Inception: Mercury 2 vs OpenAI: gpt-oss-120b

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-05

指標 Inception: Mercury 2 none リリース: 2026-02-24 OpenAI: gpt-oss-120b medium リリース: 2025-08-05 無料で利用可能
順位 #50 #36
平均スコア 34 52
一貫性 89 72
結果あたりのコスト 0.147 0.133
合計コスト $0.006 $0.010
応答時間(平均) 594ms 17.75s
応答時間(最大) 1.27s 50.92s
応答時間(合計) 8.91s 141.98s
正解テスト
試行ごとの合格率 33.3% 57.8%
不安定なテスト 2 5
出力トークン 1,144 13,103
推論トークン 0 33,843

スコア上位モデル

応答時間(平均)

スコア vs 総コスト

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 0.0% 0 466ms 274 0
OpenAI: gpt-oss-120b 70 98 66.7% 0 19.76s 3,463 2,077
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 0.0% 0 606ms 131 0
OpenAI: gpt-oss-120b 100 100 100.0% 0 31.18s 694 5,072
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 55 59 83.3% 1 667ms 180 0
OpenAI: gpt-oss-120b 55 59 66.7% 1 1.98s 241 1,114
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 40 72 44.4% 1 534ms 46 0
OpenAI: gpt-oss-120b 100 44 22.2% 2 50.92s 6,784 20,606
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 55 100 50.0% 0 551ms 82 0
OpenAI: gpt-oss-120b 95 100 100.0% 0 7.63s 126 1,799
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 0.0% 0 533ms 234 0
OpenAI: gpt-oss-120b 17 47 22.2% 2 11.80s 1,508 2,092
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Inception: Mercury 2 100 100 100.0% 0 1.27s 197 0
OpenAI: gpt-oss-120b 90 100 100.0% 0 6.91s 287 1,083

クイック比較

比較ペアを切り替え