ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

Google: Gemma 4 26B A4B vs OpenAI: GPT-5 Nano

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-04-04

指標 Gemma 4 26B A4B Gemma 4 26B A4B none リリース: 2026-04-03 GPT-5 Nano GPT-5 Nano medium リリース: 2025-08-07
スコア 6.3 6.2
順位 #53 #54
一貫性 9.1 6.7
正解テスト
試行ごとの合格率 47.1% 58.8%
不安定なテスト 2 7
総実行回数 51 51
結果あたりのコスト 0.068 0.864
合計コスト $0.005 $0.061
???? $0.130 / 1M $0.050 / 1M
???? $0.400 / 1M $0.400 / 1M
出力トークン 1,335 4,500
推論トークン 0 143,296
応答時間(平均) 6.56s 44.47s
応答時間(最大) 57.10s 204.02s
応答時間(合計) 111.54s 444.74s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

スコア vs 応答時間(平均)

合計出力トークン

スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 8.3 10.0 75.0% 0 1.28s 230 0
GPT-5 Nano 6.5 7.9 58.3% 1 25.50s 1,221 21,184
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 3.0 10.0 0.0% 0 30.53s 309 0
GPT-5 Nano 10.0 10.0 100.0% 0 65.96s 578 17,984
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 10.0 10.0 100.0% 0 1.70s 285 0
GPT-5 Nano 3.7 1.7 50.0% 2 21.42s 453 10,560
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 3.6 7.2 22.2% 1 2.49s 27 0
GPT-5 Nano 5.2 4.4 55.6% 2 204.02s 237 64,448
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 4.0 10.0 0.0% 0 3.54s 85 0
GPT-5 Nano 4.1 10.0 0.0% 0 17.51s 202 4,608
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 4.4 6.9 16.7% 1 1.08s 75 0
GPT-5 Nano 8.5 6.8 83.3% 1 11.90s 382 4,096
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 5.7 10.0 33.3% 0 739ms 114 0
GPT-5 Nano 5.3 7.2 44.4% 1 19.81s 869 13,440
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Gemma 4 26B A4B 10.0 10.0 100.0% 0 57.10s 210 0
GPT-5 Nano 10.0 10.0 100.0% 0 33.30s 558 6,976

クイック比較

比較ペアを切り替え