AI BENCHY Compare
Anthropic: Claude Opus 4.6 vs DeepSeek: DeepSeek V3.2
Benchmarks generados a partir de los suites de prueba de AI BENCHY en: 2026-03-03
| Métrica | Anthropic: Claude Opus 4.6 medium Lanzamiento: 2026-02-05 | DeepSeek: DeepSeek V3.2 none Lanzamiento: 2025-12-01 |
|---|---|---|
| Rango | #21 | #30 |
| Puntaje prom. | 6.07 | 4.70 |
| Consistencia | 8.80 | 8.19 |
| Costo por resultado | 10.992 | 0.132 |
| Costo total | $0.880 | $0.007 |
| Pruebas correctas | 8/14 | 5/14 |
| Tasa de aciertos por intento | 61.9% | 47.6% |
| Pruebas inestables | 2 | 3 |
| Tokens de salida | 19,576 | 4,869 |
| Tokens de razonamiento | 11,081 | 0 |
Desglose por categoría
| Trucos anti-IA | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 4.00 | 4.41 | 55.6% | 2 | 897 | 1,000 | |
| DeepSeek: DeepSeek V3.2 | 1.00 | 9.68 | 0.0% | 0 | 1,411 | 0 |
| Análisis y extracción de datos | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 10.00 | 10.00 | 100.0% | 0 | 668 | 763 | |
| DeepSeek: DeepSeek V3.2 | 5.38 | 5.81 | 66.7% | 1 | 1,710 | 0 |
| Específico del dominio | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 1.00 | 10.00 | 0.0% | 0 | 16,328 | 7,928 | |
| DeepSeek: DeepSeek V3.2 | 1.00 | 7.21 | 22.2% | 1 | 24 | 0 |
| Seguimiento de instrucciones | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 9.50 | 9.99 | 100.0% | 0 | 266 | 468 | |
| DeepSeek: DeepSeek V3.2 | 8.00 | 9.99 | 50.0% | 0 | 66 | 0 |
| Puzzle Solving | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 7.00 | 10.00 | 66.7% | 0 | 556 | 593 | |
| DeepSeek: DeepSeek V3.2 | 7.67 | 7.49 | 88.9% | 1 | 1,136 | 0 |
| Llamada de herramientas | Puntuación | Consistencia | Tasa de aciertos por intento | Pruebas inestables | Pruebas correctas | Tokens de salida | Tokens de razonamiento |
|---|---|---|---|---|---|---|---|
| Anthropic: Claude Opus 4.6 | 10.00 | 10.00 | 100.0% | 0 | 861 | 329 | |
| DeepSeek: DeepSeek V3.2 | 10.00 | 10.00 | 100.0% | 0 | 522 | 0 |
Comparación rápida
Cambiar par de comparación
Claude Opus 4.6mediumvsGLM 5noneClaude Opus 4.6mediumvsQwen3.5 Plus 2026-02-15noneDeepSeek V3.2nonevsGLM 4.7 FlashmediumClaude Opus 4.6mediumvsQwen3.5-122B-A10BnoneDeepSeek V3.2nonevsMiniMax M2.5mediumDeepSeek V3.2nonevsgpt-oss-120bmediumDisponible gratisDeepSeek V3.2nonevsQwen3.5-FlashmediumClaude Opus 4.6mediumvsGemini 3 Flash PreviewnoneDeepSeek V3.2nonevsGPT-5 NanomediumDeepSeek V3.2nonevsQwen3 Coder NextmediumClaude Opus 4.6mediumvsGPT-4o-mininoneDeepSeek V3.2nonevsQwen3.5-35B-A3Bmedium