ナビゲーション
AI BENCHY
比較する チャート 方法論
❤️ Made by XCS
Your ad here

AI BENCHY Compare

Anthropic: Claude Opus 4.6 vs Trinity Large Preview

比較する:

ベンチマークは AI BENCHY テストスイートから次の日時に生成: 2026-03-06

指標 Anthropic: Claude Opus 4.6 medium リリース: 2026-02-05 Trinity Large Preview none リリース: 2026-01-27 無料で利用可能
順位 #26 #45
平均スコア 6.6 4.2
一貫性 9.0 9.6
結果あたりのコスト 13.118 0.000
合計コスト $1.312 $0.000
正解テスト
試行ごとの合格率 66.7% 33.3%
不安定なテスト 2 1
総実行回数 48 48
出力トークン 26,254 1,837
推論トークン 17,363 0
応答時間(平均) 22.86s 3.15s
応答時間(最大) 83.40s 8.91s
応答時間(合計) 205.71s 50.46s

スコア上位モデル

スコア vs 総コスト

応答時間(平均)

平均スコア vs 応答時間(平均)

カテゴリ内訳

反AIトリック スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 4.0 4.4 55.6% 2 11.88s 897 1,000
Trinity Large Preview 10.0 10.0 0.0% 0 3.59s 587 0
複合 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 76.66s 8,178 5,194
Trinity Large Preview 10.0 10.0 0.0% 0 8.91s 294 0
データ解析と抽出 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 9.9 10.0 100.0% 0 7.37s 691 757
Trinity Large Preview 9.9 10.0 100.0% 0 3.26s 186 0
ドメイン特化 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 0.0% 0 83.40s 14,642 8,687
Trinity Large Preview 4.0 10.0 33.3% 0 877ms 25 0
汎用知能 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 5.04s 188 292
Trinity Large Preview 3.0 9.9 0.0% 0 2.86s 124 0
指示追従 スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 2.43s 266 467
Trinity Large Preview 3.5 6.7 16.7% 1 1.09s 63 0
Puzzle Solving スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 7.0 10.0 66.7% 0 4.60s 531 637
Trinity Large Preview 4.0 10.0 33.3% 0 3.30s 291 0
ツール呼び出し スコア 一貫性 試行ごとの合格率 不安定なテスト 正解テスト 応答時間(平均) 出力トークン 推論トークン
Anthropic: Claude Opus 4.6 10.0 10.0 100.0% 0 9.73s 861 329
Trinity Large Preview 10.0 10.0 100.0% 0 6.67s 267 0

クイック比較

比較ペアを切り替え