AI BENCHY カテゴリ
汎用知能 ランキング
汎用知能 でどのAIモデルが最も強いか、どのモデルが安定しているか、差が大きいのはどこかを確認できます。 並び替え: 応答時間(平均) ↑.
| 順位 | モデル | 企業 | 汎用知能 スコア | スコア | 正解テスト | 応答時間(平均) |
|---|---|---|---|---|---|---|
| #26 | Claude Sonnet 4.6 medium | Anthropic | 10.0 | 8.0 | 1/1 | 4.94s |
| #37 | Claude Opus 4.6 medium | Anthropic | 10.0 | 7.6 | 1/1 | 5.04s |
| #11 | Gemini 3.1 Flash Lite Preview high | 10.0 | 8.4 | 1/1 | 5.25s | |
| #25 | Grok 4.20 Beta medium | X AI | 10.0 | 8.0 | 1/1 | 5.78s |
| #56 | Grok 4.20 Multi Agent Beta medium | X AI | 5.8 | 6.4 | 0/1 | 6.40s |
| #50 | Hunter Alpha medium | OpenRouter | 7.0 | 6.7 | 0/1 | 6.44s |
| #30 | Step 3.5 Flash medium | Stepfun | 5.5 | 7.9 | 0/1 | 6.54s |
| #71 | MiniMax M2.5 medium | Minimax | 3.8 | 5.7 | 0/1 | 6.63s |
| #47 | Grok 4.20 medium | X AI | 5.8 | 7.0 | 0/1 | 7.09s |
| #68 | gpt-oss-120b medium | OpenAI | 4.3 | 5.8 | 0/1 | 7.90s |
| #12 | Gemini 3 PRO Preview medium | 10.0 | 8.4 | 1/1 | 9.34s | |
| #14 | Gemma 4 31B medium | 10.0 | 8.3 | 1/1 | 9.57s | |
| #18 | GLM 5 Turbo medium | Z.ai | 6.1 | 8.1 | 0/1 | 10.1s |
| #31 | GLM 5V Turbo medium | Z.ai | 10.0 | 7.8 | 1/1 | 11.1s |
| #2 | Gemini 3.1 Pro Preview medium | 10.0 | 9.6 | 1/1 | 11.8s |