ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

OpenAI: GPT-5 Nano vs Grok 4.20 Multi Agent Beta

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-04-04

指標 GPT-5 Nano GPT-5 Nano medium リリース: 2025-08-07 Grok 4.20 Multi Agent Beta Grok 4.20 Multi Agent Beta medium リリース: 2026-03-12
スコア 6.2 6.2
順位 #54 #55
一貫性 6.7 7.2
正解テスト
試行ごとの合格率 58.8% 54.9%
不安定なテスト 7 6
総実行回数 51 51
結果あたりのコスト 0.864 82.962
合計コスト $0.061 $4.978
???? $0.050 / 1M $0.000 / 1M
???? $0.400 / 1M $0.000 / 1M
出力トークン 4,500 298,948
推論トークン 143,296 296,529
応答時間(平均) 44.47s 8.64s
応答時間(最大) 204.02s 35.28s
応答時間(合計) 444.74s 129.64s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

スコア vs 応答時間(平均)

合計出力トークン

スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 6.5 7.9 58.3% 1 25.50s 1,221 21,184
Grok 4.20 Multi Agent Beta 6.9 5.8 75.0% 2 3.46s 33,706 33,077
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 10.0 10.0 100.0% 0 65.96s 578 17,984
Grok 4.20 Multi Agent Beta 3.0 10.0 0.0% 0 0ms 0 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 3.7 1.7 50.0% 2 21.42s 453 10,560
Grok 4.20 Multi Agent Beta 10.0 10.0 100.0% 0 5.54s 25,306 25,051
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 5.2 4.4 55.6% 2 204.02s 237 64,448
Grok 4.20 Multi Agent Beta 2.9 7.2 11.1% 1 24.67s 164,609 163,647
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 4.1 10.0 0.0% 0 17.51s 202 4,608
Grok 4.20 Multi Agent Beta 5.8 2.8 66.7% 1 6.40s 15,848 15,746
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 8.5 6.8 83.3% 1 11.90s 382 4,096
Grok 4.20 Multi Agent Beta 8.3 10.0 50.0% 0 4.63s 25,457 25,322
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 5.3 7.2 44.4% 1 19.81s 869 13,440
Grok 4.20 Multi Agent Beta 7.2 5.1 77.8% 2 5.01s 34,022 33,686
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
GPT-5 Nano 10.0 10.0 100.0% 0 33.30s 558 6,976
Grok 4.20 Multi Agent Beta 3.0 10.0 0.0% 0 0ms 0 0

クイック比較

比較ペアを切り替え