ナビゲーション
AI BENCHY
比較する チャート 方法論
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

Google: Gemini 3.1 Pro Preview vs OpenAI: GPT-5.4

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-06

指標 Google: Gemini 3.1 Pro Preview medium リリース: 2026-02-19 OpenAI: GPT-5.4 medium リリース: 2026-03-05
平均スコア 9.3 8.2
順位 #2 #7
正解テスト
一貫性 10.0 8.9
結果あたりのコスト 3.544 6.533
合計コスト $0.497 $0.784
試行ごとの合格率 93.3% 86.7%
不安定なテスト 0 2
common.totalRuns 45 (15 x 3) 45 (15 x 3)
出力トークン 1,413 1,611
推論トークン 34,477 46,321
応答時間(平均) 17.20s 21.06s
応答時間(最大) 40.61s 100.41s
応答時間(合計) 137.59s 315.95s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 9.52s 106 2,533
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 5.02s 216 1,466
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 9.0 10.0 100.0% 0 40.61s 432 9,281
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 20.57s 301 3,543
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 9.9 10.0 100.0% 0 7.72s 279 3,904
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 5.32s 234 804
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 7.0 10.0 66.7% 0 32.73s 18 12,424
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 74.27s 61 34,748
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 9.56s 72 2,236
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 3.11s 93 897
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 7.15s 232 3,117
OpenAI: GPT-5.4 7.0 7.2 88.9% 1 9.13s 442 3,832
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Google: Gemini 3.1 Pro Preview 10.0 10.0 100.0% 0 23.15s 274 982
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 13.28s 264 1,031

クイック比較

比較ペアを切り替え