ナビゲーション
AI BENCHY
Your ad here

AI BENCHY Compare

xAI: Grok 4.20 Beta vs Xiaomi: MiMo-V2-Pro

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-20

指標 Grok 4.20 Beta Grok 4.20 Beta medium リリース: 2026-03-12 MiMo-V2-Pro MiMo-V2-Pro medium リリース: 2026-03-18
スコア 7.9 8.0
順位 #22 #20
一貫性 9.0 8.5
正解テスト
試行ごとの合格率 72.6% 76.5%
不安定なテスト 2 3
総実行回数 51 45
結果あたりのコスト 5.525 1.110
合計コスト $0.608 $0.123
???? $2.000 / 1M $1.000 / 1M
???? $6.000 / 1M $3.000 / 1M
出力トークン 1,487 1,875
推論トークン 87,922 26,959
応答時間(平均) 8.54s 9.78s
応答時間(最大) 24.21s 64.71s
応答時間(合計) 145.26s 156.45s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

スコア vs 応答時間(平均)

合計出力トークン

スコア vs 合計出力トークン

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 8.7 7.9 91.7% 1 3.16s 268 7,583
MiMo-V2-Pro 10.0 10.0 100.0% 0 3.06s 223 1,107
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 10.0 10.0 100.0% 0 20.93s 227 12,212
MiMo-V2-Pro 4.7 1.6 66.7% 1 64.71s 380 14,186
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 10.0 10.0 100.0% 0 4.01s 180 5,281
MiMo-V2-Pro 7.3 5.8 83.3% 1 17.20s 260 7,484
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 5.3 10.0 33.3% 0 21.33s 251 40,255
MiMo-V2-Pro 5.3 10.0 33.3% 0 6.00s 155 1,048
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 10.0 10.0 100.0% 0 5.78s 72 3,440
MiMo-V2-Pro 10.0 10.0 100.0% 0 4.06s 198 424
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 8.3 10.0 50.0% 0 4.97s 57 7,107
MiMo-V2-Pro 9.9 10.0 100.0% 0 3.36s 83 667
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 8.2 7.2 88.9% 1 3.85s 249 6,660
MiMo-V2-Pro 7.0 7.2 55.6% 1 4.71s 313 1,179
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Grok 4.20 Beta 3.0 10.0 0.0% 0 12.39s 183 5,384
MiMo-V2-Pro 10.0 10.0 100.0% 0 8.19s 263 864

クイック比較

比較ペアを切り替え