ナビゲーション
AI BENCHY
比較する チャート 方法論
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs Google: Gemini 3.1 Flash Lite Preview

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-06

指標 Anthropic: Claude Opus 4.6 medium リリース: 2026-02-05 Google: Gemini 3.1 Flash Lite Preview low リリース: 2026-03-03
平均スコア 6.4 7.6
順位 #31 #13
正解テスト
一貫性 8.9 10.0
結果あたりのコスト 14.411 0.170
合計コスト $1.297 $0.019
試行ごとの合格率 64.4% 73.3%
不安定なテスト 2 0
common.totalRuns 45 (15 x 3) 45 (15 x 3)
出力トークン 26,066 1,542
推論トークン 17,071 6,888
応答時間(平均) 25.08s 3.49s
応答時間(最大) 83.40s 11.91s
応答時間(合計) 200.67s 52.29s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 4.0 4.4 55.6% 2 11.88s 897 1,000
Google: Gemini 3.1 Flash Lite Preview 7.0 10.0 66.7% 0 2.18s 456 1,224
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 0.0% 0 11.91s 225 762
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 9.9 10.0 100.0% 0 7.37s 691 757
Google: Gemini 3.1 Flash Lite Preview 9.9 10.0 100.0% 0 3.00s 291 696
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 0.0% 0 83.40s 14,642 8,687
Google: Gemini 3.1 Flash Lite Preview 4.0 10.0 33.3% 0 2.36s 18 1,212
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 100.0% 0 1.49s 72 753
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 7.0 10.0 66.7% 0 4.60s 531 637
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 100.0% 0 2.76s 243 1,248
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
Google: Gemini 3.1 Flash Lite Preview 10.0 10.0 100.0% 0 9.54s 237 993

クイック比較

比較ペアを切り替え