ナビゲーション
AI BENCHY
比較する チャート
❤️ Made by XCS
Your ad here

AI BENCHY Compare

OpenAI: GPT-4o-mini vs Z.ai: GLM 5

モデル名:

ベンチマークは AI BENCHY テストスイートから次の日時に生成 : 2026-02-27 15:16

概要

指標 OpenAI: GPT-4o-mini none リリース: リリース日不明 Z.ai: GLM 5 medium リリース: リリース日不明
順位 #28 #9
スコア 4.86 7.29
一貫性 9.98 8.18
結果あたりのコスト 0.056 1.196
合計コスト $0.003 $0.120
正解テスト
誤答テスト数 9 4
試行ごとの合格率 35.7% 83.3%
不安定なテスト 0 3
出力トークン 949 15,923
推論トークン 0 42,557

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 4.00 10.00 33.3% 0 180 0
Z.ai: GLM 5 10.00 10.00 100.0% 0 420 4,992
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 10.00 10.00 100.0% 0 183 0
Z.ai: GLM 5 5.00 5.62 83.3% 1 567 3,734
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 1.00 10.00 0.0% 0 15 0
Z.ai: GLM 5 1.00 4.41 33.3% 2 14,404 24,570
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 5.50 10.00 50.0% 0 71 0
Z.ai: GLM 5 9.50 9.99 100.0% 0 140 2,740
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 4.00 9.92 0.0% 0 295 0
Z.ai: GLM 5 10.00 10.00 100.0% 0 159 5,527
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 10.00 10.00 100.0% 0 205 0
Z.ai: GLM 5 10.00 10.00 100.0% 0 233 994

比較ペアを切り替え