ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

Inception: Mercury 2 vs Qwen: Qwen3.5-9B

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-12

指標 Mercury 2 Mercury 2 none リリース: 2026-02-24 Qwen3.5-9B Qwen3.5-9B medium リリース: 2026-03-02
順位 #61 #66
平均スコア 3.4 2.6
一貫性 9.0 7.4
結果あたりのコスト 0.153 0.779
合計コスト $0.007 $0.024
正解テスト
試行ごとの合格率 31.3% 35.4%
不安定なテスト 2 5
総実行回数 48 48
出力トークン 1,303 17,930
推論トークン 0 139,706
応答時間(平均) 596ms 71.44s
応答時間(最大) 1.27s 226.38s
応答時間(合計) 9.54s 928.77s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

合計出力トークン

平均スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 10.0 10.0 0.0% 0 466ms 274 0
Qwen3.5-9B 4.0 7.2 55.6% 1 31.54s 2,410 10,913
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 10.0 10.0 0.0% 0 606ms 131 0
Qwen3.5-9B 10.0 10.0 0.0% 0 0ms 0 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 5.5 5.9 83.3% 1 667ms 180 0
Qwen3.5-9B 5.0 5.6 33.3% 1 87.31s 1,383 32,113
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 4.0 7.2 44.4% 1 534ms 46 0
Qwen3.5-9B 10.0 7.2 22.2% 1 137.75s 11,549 48,475
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 4.0 10.0 0.0% 0 628ms 159 0
Qwen3.5-9B 10.0 1.6 33.3% 1 226.38s 0 30,695
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 5.5 10.0 50.0% 0 551ms 82 0
Qwen3.5-9B 5.5 5.8 66.7% 1 17.15s 599 4,517
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 10.0 10.0 0.0% 0 533ms 234 0
Qwen3.5-9B 10.0 10.0 0.0% 0 33.38s 1,545 11,844
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Mercury 2 10.0 10.0 100.0% 0 1.27s 197 0
Qwen3.5-9B 10.0 10.0 100.0% 0 4.31s 444 1,149

クイック比較

比較ペアを切り替え