ナビゲーション
AI BENCHY
比較する チャート
❤️ Made by XCS
Your ad here

AI BENCHY Compare

OpenAI: GPT-4o-mini vs Z.ai: GLM 4.7 Flash

モデル名:

ベンチマークは AI BENCHY テストスイートから次の日時に生成 : 2026-02-27 15:16

概要

指標 OpenAI: GPT-4o-mini none リリース: リリース日不明 Z.ai: GLM 4.7 Flash none リリース: リリース日不明
順位 #28 #34
スコア 4.86 3.63
一貫性 9.98 7.73
結果あたりのコスト 0.056 0.047
合計コスト $0.003 $0.002
正解テスト
誤答テスト数 9 11
試行ごとの合格率 35.7% 38.1%
不安定なテスト 0 4
出力トークン 949 1,016
推論トークン 0 0

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 4.00 10.00 33.3% 0 180 0
Z.ai: GLM 4.7 Flash 1.00 7.21 22.2% 1 430 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 10.00 10.00 100.0% 0 183 0
Z.ai: GLM 4.7 Flash 5.38 5.81 83.3% 1 196 0
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 1.00 10.00 0.0% 0 15 0
Z.ai: GLM 4.7 Flash 7.00 10.00 66.7% 0 19 0
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 5.50 10.00 50.0% 0 71 0
Z.ai: GLM 4.7 Flash 4.00 6.84 33.3% 1 53 0
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 4.00 9.92 0.0% 0 295 0
Z.ai: GLM 4.7 Flash 2.33 9.91 0.0% 0 106 0
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 出力トークン 推論トークン
OpenAI: GPT-4o-mini 10.00 10.00 100.0% 0 205 0
Z.ai: GLM 4.7 Flash 1.00 1.62 33.3% 1 212 0

比較ペアを切り替え