AI BENCHY カテゴリ
汎用知能 ランキング
汎用知能 でどのAIモデルが最も強いか、どのモデルが安定しているか、差が大きいのはどこかを確認できます。 並び替え: 正解テスト ↑.
| 順位 | モデル | 企業 | 汎用知能 スコア | スコア | 正解テスト | 応答時間(平均) |
|---|---|---|---|---|---|---|
| #86 | GPT-5.4 Mini none | OpenAI | 4.8 | 5.1 | 0/1 | 1.82s |
| #88 | Nemotron 3 Super none | NVIDIA | 4.2 | 5.1 | 0/1 | 25.0s |
| #89 | GPT-4o-mini none | OpenAI | 4.0 | 4.9 | 0/1 | 909ms |
| #90 | Qwen3.5-9B none | Qwen | 4.4 | 4.8 | 0/1 | 552ms |
| #91 | Mercury 2 none | Inception | 4.8 | 4.8 | 0/1 | 628ms |
| #92 | Qwen3 Coder Next medium | Qwen | 6.3 | 4.7 | 0/1 | 1.39s |
| #93 | GLM 4.7 Flash medium | Z.ai | 3.6 | 4.6 | 0/1 | 18.1s |
| #94 | MiMo-V2-Flash none | Xiaomi | 4.6 | 4.5 | 0/1 | 1.67s |
| #95 | Grok 4.1 Fast none | X AI | 4.4 | 4.5 | 0/1 | 1.08s |
| #96 | GPT-5.4 Nano none | OpenAI | 3.8 | 4.5 | 0/1 | 1.31s |
| #97 | Qwen3.5-9B medium | Qwen | 2.8 | 4.4 | 0/1 | 226.4s |
| #98 | LFM2-24B-A2B none | Liquid | 4.0 | 4.1 | 0/1 | 395ms |
| #1 | Gemini 3 Flash Preview medium | 10.0 | 10.0 | 1/1 | 4.09s | |
| #2 | Gemini 3.1 Pro Preview medium | 10.0 | 9.6 | 1/1 | 11.8s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 10.0 | 9.2 | 1/1 | 2.87s |