AI BENCHY Compare
OpenAI: GPT-5.3-Codex vs Z.ai: GLM 5
ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-04-14
| 指標 | GPT-5.3-Codex GPT-5.3-Codex medium | GLM 5 GLM 5 none |
|---|---|---|
| スコア | 8.6 | 6.6 |
| 順位 | #5 | #50 |
| 一貫性 | 8.7 | 9.6 |
| 正解テスト | ||
| 試行ごとの合格率 | 83.3% | 51.9% |
| 不安定なテスト | 3 | 1 |
| 総実行回数 | 54 | 54 |
| 結果あたりのコスト | 4.405 | 0.217 |
| 合計コスト | $0.573 | $0.020 |
| ???? | $1.750 / 1M | $0.720 / 1M |
| ???? | $14.000 / 1M | $2.300 / 1M |
| 出力トークン | 2,279 | 1,959 |
| 推論トークン | 35,179 | 0 |
| 応答時間(平均) | 15.38s | 4.23s |
| 応答時間(最大) | 100.93s | 11.07s |
| 応答時間(合計) | 276.91s | 46.51s |
スコア vs 総コスト
応答時間(平均)
スコア vs 応答時間(平均)
合計出力トークン
スコア vs 合計出力トークン
カテゴリ内訳
| 反AIトリック | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 8.7 | 7.9 | 91.7% | 1 | 4.16s | 240 | 1,722 | |
| GLM 5 | 4.8 | 10.0 | 25.0% | 0 | 2.37s | 275 | 0 |
| コーディング | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 10.0 | 10.0 | 100.0% | 0 | 8.95s | 491 | 1,530 | |
| GLM 5 | 5.6 | 3.5 | 33.3% | 1 | 8.84s | 408 | 0 |
| 複合 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 10.0 | 10.0 | 100.0% | 0 | 19.56s | 364 | 2,731 | |
| GLM 5 | 3.0 | 10.0 | 0.0% | 0 | 4.98s | 406 | 0 |
| データ解析と抽出 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 10.0 | 10.0 | 100.0% | 0 | 3.07s | 234 | 728 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 5.78s | 203 | 0 |
| ドメイン特化 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 5.9 | 7.2 | 55.6% | 1 | 64.31s | 64 | 25,308 | |
| GLM 5 | 3.0 | 10.0 | 0.0% | 0 | 2.24s | 19 | 0 |
| 汎用知能 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 4.6 | 10.0 | 0.0% | 0 | 4.87s | 187 | 331 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 3.27s | 103 | 0 |
| 指示追従 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 10.0 | 10.0 | 100.0% | 0 | 3.04s | 93 | 693 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 1.48s | 61 | 0 |
| パズル解決 | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 9.0 | 7.9 | 88.9% | 1 | 5.12s | 352 | 1,644 | |
| GLM 5 | 7.7 | 10.0 | 66.7% | 0 | 2.05s | 264 | 0 |
| ツール呼び出し | スコア | 一貫性 | 試行ごとの合格率 | 不安定なテスト | 正解テスト | 応答時間(平均) | 出力トークン | 推論トークン |
|---|---|---|---|---|---|---|---|---|
| GPT-5.3-Codex | 10.0 | 10.0 | 100.0% | 0 | 6.37s | 254 | 492 | |
| GLM 5 | 10.0 | 10.0 | 100.0% | 0 | 11.07s | 220 | 0 |
クイック比較
比較ペアを切り替え
Grok 4.1 FastmediumvsGLM 5noneNemotron 3 Supermedium無料で利用可能vsGLM 5noneMercury 2mediumvsGLM 5noneGemini 3 Flash PreviewlowvsGPT-5.3-CodexmediumGrok 4.20mediumvsGLM 5noneKimi K2.5mediumvsGLM 5noneGPT-5 MinimediumvsGLM 5noneGPT-5 NanomediumvsGLM 5noneGemini 3 Flash PreviewnonevsGPT-5.3-CodexmediumGemini 3.1 Flash Lite PreviewlowvsGPT-5.3-CodexmediumGPT-5.4 MinimediumvsGLM 5noneGemini 3.1 Flash Lite PreviewnonevsGPT-5.3-Codexmedium