AI BENCHY カテゴリ
ドメイン特化 ランキング
ドメイン特化 でどのAIモデルが最も強いか、どのモデルが安定しているか、差が大きいのはどこかを確認できます。 並び替え: 正解テスト ↑.
| 順位 | モデル | 企業 | ドメイン特化 スコア | スコア | 正解テスト | 応答時間(平均) |
|---|---|---|---|---|---|---|
| #72 | Hunter Alpha none | OpenRouter | 5.3 | 5.7 | 1/3 | 2.33s |
| #73 | Mistral Small 4 medium | Mistral | 5.3 | 5.7 | 1/3 | 6.11s |
| #76 | Kimi K2.5 none | Moonshot AI | 5.3 | 5.5 | 1/3 | 4.38s |
| #77 | GLM 5 Turbo none | Z.ai | 5.3 | 5.5 | 1/3 | 1.97s |
| #78 | Trinity Large Preview none | Arcee AI | 5.3 | 5.3 | 1/3 | 877ms |
| #83 | Mistral Small 4 none | Mistral | 5.3 | 5.2 | 1/3 | 367ms |
| #87 | Qwen3 Coder Next none | Qwen | 5.3 | 5.1 | 1/3 | 962ms |
| #91 | Mercury 2 none | Inception | 5.3 | 4.8 | 1/3 | 534ms |
| #92 | Qwen3 Coder Next medium | Qwen | 5.3 | 4.7 | 1/3 | 638ms |
| #94 | MiMo-V2-Flash none | Xiaomi | 5.3 | 4.5 | 1/3 | 564ms |
| #95 | Grok 4.1 Fast none | X AI | 5.9 | 4.5 | 1/3 | 1.06s |
| #98 | LFM2-24B-A2B none | Liquid | 5.9 | 4.1 | 1/3 | 287ms |
| #2 | Gemini 3.1 Pro Preview medium | 7.7 | 9.6 | 2/3 | 32.7s | |
| #3 | Claude Opus 4.7 medium | Anthropic | 7.7 | 9.2 | 2/3 | 1.17s |
| #4 | Claude Opus 4.7 none | Anthropic | 7.7 | 9.2 | 2/3 | 1.19s |