ナビゲーション
AI BENCHY
比較する チャート 方法論
❤️ Made by XCS
AD
Track all your projects in one dashboard. Get 📊stats, 🔥heatmaps and 👀recordings in one self-hosted dashboard.
uxwizz.com

AI BENCHY Compare

OpenAI: GPT-5.3-Codex vs OpenAI: GPT-5.4

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-06

指標 OpenAI: GPT-5.3-Codex medium リリース: 2026-02-05 OpenAI: GPT-5.4 medium リリース: 2026-03-05
平均スコア 8.7 8.2
順位 #4 #7
正解テスト
一貫性 9.0 8.9
結果あたりのコスト 4.418 6.533
合計コスト $0.531 $0.784
試行ごとの合格率 88.9% 86.7%
不安定なテスト 2 2
common.totalRuns 45 (15 x 3) 45 (15 x 3)
出力トークン 1,577 1,611
推論トークン 33,017 46,321
応答時間(平均) 17.37s 21.06s
応答時間(最大) 100.93s 100.41s
応答時間(合計) 260.52s 315.95s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 4.69s 216 1,421
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 5.02s 216 1,466
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 19.56s 364 2,731
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 20.57s 301 3,543
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 9.9 10.0 100.0% 0 3.07s 234 728
OpenAI: GPT-5.4 9.9 10.0 100.0% 0 5.32s 234 804
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 4.0 7.2 55.6% 1 64.31s 64 25,308
OpenAI: GPT-5.4 4.0 7.2 44.4% 1 74.27s 61 34,748
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 3.04s 93 693
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 3.11s 93 897
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 9.3 7.9 88.9% 1 5.12s 352 1,644
OpenAI: GPT-5.4 7.0 7.2 88.9% 1 9.13s 442 3,832
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
OpenAI: GPT-5.3-Codex 10.0 10.0 100.0% 0 6.37s 254 492
OpenAI: GPT-5.4 10.0 10.0 100.0% 0 13.28s 264 1,031

クイック比較

比較ペアを切り替え