AI BENCHY カテゴリ
汎用知能 ランキング
汎用知能 でどのAIモデルが最も強いか、どのモデルが安定しているか、差が大きいのはどこかを確認できます。 並び替え: 正解テスト ↑.
| 順位 | モデル | 企業 | 汎用知能 スコア | スコア | 正解テスト | 応答時間(平均) |
|---|---|---|---|---|---|---|
| #37 | Claude Opus 4.6 medium | Anthropic | 10.0 | 7.6 | 1/1 | 5.04s |
| #48 | Gemma 4 31B none | 10.0 | 6.9 | 1/1 | 2.09s | |
| #53 | GLM 5 none | Z.ai | 10.0 | 6.6 | 1/1 | 3.27s |
| #59 | Qwen3.5-Flash none | Qwen | 10.0 | 6.2 | 1/1 | 803ms |
| #61 | Seed-2.0-Lite none | Bytedance Seed | 10.0 | 6.2 | 1/1 | 3.45s |
| #64 | DeepSeek V3.2 none | DeepSeek | 10.0 | 6.1 | 1/1 | 2.86s |
| #76 | Kimi K2.5 none | Moonshot AI | 10.0 | 5.5 | 1/1 | 4.00s |
| #87 | Qwen3 Coder Next none | Qwen | 10.0 | 5.1 | 1/1 | 1.34s |