AI BENCHY カテゴリ
ツール呼び出し ランキング
ツール呼び出し でどのAIモデルが最も強いか、どのモデルが安定しているか、差が大きいのはどこかを確認できます。 並び替え: 応答時間(平均) ↓.
| 順位 | モデル | 企業 | ツール呼び出し スコア | スコア | 正解テスト | 応答時間(平均) |
|---|---|---|---|---|---|---|
| #40 | GPT-5.2 medium | OpenAI | 4.7 | 7.5 | 0/1 | 10.3s |
| #18 | GLM 5 Turbo medium | Z.ai | 10.0 | 8.1 | 1/1 | 9.84s |
| #37 | Claude Opus 4.6 medium | Anthropic | 10.0 | 7.6 | 1/1 | 9.73s |
| #44 | GPT-5.4 Mini medium | OpenAI | 4.7 | 7.3 | 0/1 | 9.62s |
| #22 | Gemini 3.1 Flash Lite Preview low | 10.0 | 8.1 | 1/1 | 9.54s | |
| #24 | Gemma 4 26B A4B medium | 10.0 | 8.0 | 1/1 | 9.01s | |
| #34 | Kimi K2.6 medium | Moonshot AI | 10.0 | 7.7 | 1/1 | 8.92s |
| #36 | GPT-5.3 Chat none | OpenAI | 10.0 | 7.7 | 1/1 | 8.36s |
| #77 | GLM 5 Turbo none | Z.ai | 10.0 | 5.5 | 1/1 | 8.21s |
| #23 | MiMo-V2-Pro medium | Xiaomi | 10.0 | 8.1 | 1/1 | 8.19s |
| #11 | Gemini 3.1 Flash Lite Preview high | 10.0 | 8.4 | 1/1 | 7.73s | |
| #38 | GPT-5.4 Nano medium | OpenAI | 10.0 | 7.6 | 1/1 | 7.71s |
| #8 | Qwen3.5 Plus 2026-02-15 medium | Qwen | 10.0 | 8.5 | 1/1 | 7.54s |
| #26 | Claude Sonnet 4.6 medium | Anthropic | 10.0 | 8.0 | 1/1 | 7.48s |
| #10 | Qwen3.5-27B medium | Qwen | 10.0 | 8.4 | 1/1 | 7.45s |