| Anti-AI Tricks | 1/2 | 5.50 Puntaje promedio en todas las pruebas de benchmark. Rango: #14/27 50% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Qwen: Qwen3.5 Plus 2026-02-15 10.00 OpenAI: GPT-5.2 10.00 StepFun: Step 3.5 Flash 5.50 Anthropic: Claude Sonnet 4.6 1.00 1.00 10.00 | 5.81 La consistencia refleja la estabilidad entre repeats (10 = muy consistente, incluso si es consistentemente incorrecto). Rango: #25/27 8% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Qwen: Qwen3.5 Plus 2026-02-15 10.00 OpenAI: GPT-5.2 10.00 StepFun: Step 3.5 Flash 5.81 Anthropic: Claude Opus 4.6 1.62 1.62 10.00 | 83.3% Tasa de aciertos por intento = intentos correctos / intentos totales en todos los repeats. Rango: #12/27 58% Google: Gemini 3 Flash Preview 100.0% Google: Gemini 3.1 Pro Preview 100.0% Google: Gemini 3 Pro Preview 100.0% Qwen: Qwen3.5 Plus 2026-02-15 100.0% OpenAI: GPT-5.2 100.0% StepFun: Step 3.5 Flash 83.3% Anthropic: Claude Sonnet 4.6 0.0% 0.0% 100.0% | 1 Pruebas inestables tuvieron resultados mixtos entre repeats (al menos un acierto y un fallo). Rango: #25/27 8% Google: Gemini 3 Flash Preview 0 Google: Gemini 3.1 Pro Preview 0 Google: Gemini 3 Pro Preview 0 Qwen: Qwen3.5 Plus 2026-02-15 0 OpenAI: GPT-5.2 0 StepFun: Step 3.5 Flash 1 Anthropic: Claude Opus 4.6 2 0 2 | 10.00 Mide la claridad, eficiencia y consistencia del razonamiento de forma independiente de la corrección final. Rango: #3/17 88% OpenAI: gpt-oss-120b 10.00 Anthropic: Claude Opus 4.6 10.00 StepFun: Step 3.5 Flash 10.00 Anthropic: Claude Sonnet 4.6 9.83 MoonshotAI: Kimi K2.5 9.77 Qwen: Qwen3 Coder Next 1.00 1.00 10.00 | $0.00000 Costo total Rango: #1/27 100% StepFun: Step 3.5 Flash $0.00000 Z.ai: GLM 4.7 Flash $0.00003 Xiaomi: MiMo-V2-Flash $0.00004 Qwen: Qwen3 Coder Next $0.00005 Qwen: Qwen3 Coder Next $0.00005 Anthropic: Claude Opus 4.6 $0.03036 $0.00000 $0.03036 |
| Data parsing and extraction | 1/2 | 5.00 Puntaje promedio en todas las pruebas de benchmark. Rango: #25/27 8% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Qwen: Qwen3.5 Plus 2026-02-15 10.00 OpenAI: GPT-5.2 10.00 StepFun: Step 3.5 Flash 5.00 Z.ai: GLM 4.7 Flash 0.50 0.50 10.00 | 10.00 La consistencia refleja la estabilidad entre repeats (10 = muy consistente, incluso si es consistentemente incorrecto). Rango: #13/27 54% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Qwen: Qwen3.5 Plus 2026-02-15 10.00 OpenAI: GPT-5.2 10.00 StepFun: Step 3.5 Flash 10.00 Z.ai: GLM 5 5.56 5.56 10.00 | 50.0% Tasa de aciertos por intento = intentos correctos / intentos totales en todos los repeats. Rango: #22/27 19% Google: Gemini 3 Flash Preview 100.0% Google: Gemini 3.1 Pro Preview 100.0% Google: Gemini 3 Pro Preview 100.0% Qwen: Qwen3.5 Plus 2026-02-15 100.0% OpenAI: GPT-5.2 100.0% StepFun: Step 3.5 Flash 50.0% Xiaomi: MiMo-V2-Flash 16.7% 0.0% 100.0% | 0 Pruebas inestables tuvieron resultados mixtos entre repeats (al menos un acierto y un fallo). Rango: #13/27 54% Google: Gemini 3 Flash Preview 0 Google: Gemini 3.1 Pro Preview 0 Google: Gemini 3 Pro Preview 0 Qwen: Qwen3.5 Plus 2026-02-15 0 OpenAI: GPT-5.2 0 StepFun: Step 3.5 Flash 0 Z.ai: GLM 5 1 0 1 | 9.75 Mide la claridad, eficiencia y consistencia del razonamiento de forma independiente de la corrección final. Rango: #6/17 69% OpenAI: gpt-oss-120b 10.00 Z.ai: GLM 4.7 Flash 9.87 Anthropic: Claude Sonnet 4.6 9.83 Anthropic: Claude Opus 4.6 9.83 Z.ai: GLM 5 9.80 StepFun: Step 3.5 Flash 9.75 Qwen: Qwen3 Coder Next 4.00 4.00 10.00 | $0.00000 Costo total Rango: #1/27 100% StepFun: Step 3.5 Flash $0.00000 Xiaomi: MiMo-V2-Flash $0.00029 Xiaomi: MiMo-V2-Flash $0.00029 Z.ai: GLM 4.7 Flash $0.00050 OpenAI: gpt-oss-120b $0.00052 Anthropic: Claude Opus 4.6 $0.07755 $0.00000 $0.07755 |
| Domain specific | 1/3 | 4.00 Puntaje promedio en todas las pruebas de benchmark. Rango: #12/27 58% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 7.00 Google: Gemini 3 Flash Preview 7.00 Anthropic: Claude Sonnet 4.6 7.00 Z.ai: GLM 4.7 Flash 7.00 StepFun: Step 3.5 Flash 4.00 Anthropic: Claude Sonnet 4.6 1.00 1.00 10.00 | 7.21 La consistencia refleja la estabilidad entre repeats (10 = muy consistente, incluso si es consistentemente incorrecto). Rango: #18/27 35% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Google: Gemini 3 Flash Preview 10.00 Anthropic: Claude Sonnet 4.6 10.00 StepFun: Step 3.5 Flash 7.21 Z.ai: GLM 5 4.41 4.41 10.00 | 44.4% Tasa de aciertos por intento = intentos correctos / intentos totales en todos los repeats. Rango: #12/27 58% Google: Gemini 3 Flash Preview 100.0% Google: Gemini 3.1 Pro Preview 66.7% Google: Gemini 3 Flash Preview 66.7% Anthropic: Claude Sonnet 4.6 66.7% Z.ai: GLM 4.7 Flash 66.7% StepFun: Step 3.5 Flash 44.4% Z.ai: GLM 5 0.0% 0.0% 100.0% | 1 Pruebas inestables tuvieron resultados mixtos entre repeats (al menos un acierto y un fallo). Rango: #18/27 35% Google: Gemini 3 Flash Preview 0 Google: Gemini 3.1 Pro Preview 0 Google: Gemini 3 Pro Preview 0 Google: Gemini 3 Flash Preview 0 Anthropic: Claude Sonnet 4.6 0 StepFun: Step 3.5 Flash 1 Z.ai: GLM 5 2 0 2 | 8.44 Mide la claridad, eficiencia y consistencia del razonamiento de forma independiente de la corrección final. Rango: #3/17 88% Xiaomi: MiMo-V2-Flash 8.72 OpenAI: gpt-oss-120b 8.53 StepFun: Step 3.5 Flash 8.44 Z.ai: GLM 5 8.43 Z.ai: GLM 4.7 Flash 8.21 Google: Gemini 3 Pro Preview 2.44 2.44 8.72 | $0.00000 Costo total Rango: #1/27 100% StepFun: Step 3.5 Flash $0.00000 Z.ai: GLM 4.7 Flash $0.00005 Xiaomi: MiMo-V2-Flash $0.00008 Qwen: Qwen3 Coder Next $0.00010 Qwen: Qwen3 Coder Next $0.00010 Anthropic: Claude Sonnet 4.6 $0.64205 $0.00000 $0.64205 |
| Instructions following | 2/2 | 10.00 Puntaje promedio en todas las pruebas de benchmark. Rango: #6/27 81% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Anthropic: Claude Sonnet 4.6 10.00 OpenAI: gpt-oss-120b 10.00 Z.ai: GLM 5 10.00 StepFun: Step 3.5 Flash 10.00 xAI: Grok 4.1 Fast 1.00 1.00 10.00 | 10.00 La consistencia refleja la estabilidad entre repeats (10 = muy consistente, incluso si es consistentemente incorrecto). Rango: #12/27 58% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 OpenAI: GPT-5.2 10.00 Anthropic: Claude Sonnet 4.6 10.00 StepFun: Step 3.5 Flash 10.00 Xiaomi: MiMo-V2-Flash 5.80 5.80 10.00 | 100.0% Tasa de aciertos por intento = intentos correctos / intentos totales en todos los repeats. Rango: #13/27 54% Google: Gemini 3 Flash Preview 100.0% Google: Gemini 3.1 Pro Preview 100.0% Google: Gemini 3 Pro Preview 100.0% Qwen: Qwen3.5 Plus 2026-02-15 100.0% OpenAI: GPT-5.2 100.0% StepFun: Step 3.5 Flash 100.0% xAI: Grok 4.1 Fast 0.0% 0.0% 100.0% | 0 Pruebas inestables tuvieron resultados mixtos entre repeats (al menos un acierto y un fallo). Rango: #15/27 46% Google: Gemini 3 Flash Preview 0 Google: Gemini 3.1 Pro Preview 0 Google: Gemini 3 Pro Preview 0 Qwen: Qwen3.5 Plus 2026-02-15 0 OpenAI: GPT-5.2 0 StepFun: Step 3.5 Flash 0 Google: Gemini 3 Flash Preview 1 0 1 | 9.67 Mide la claridad, eficiencia y consistencia del razonamiento de forma independiente de la corrección final. Rango: #3/17 88% Anthropic: Claude Sonnet 4.6 10.00 Z.ai: GLM 5 9.75 StepFun: Step 3.5 Flash 9.67 OpenAI: gpt-oss-120b 9.50 Anthropic: Claude Opus 4.6 9.50 xAI: Grok 4.1 Fast 3.25 3.25 10.00 | $0.00000 Costo total Rango: #1/27 100% StepFun: Step 3.5 Flash $0.00000 Z.ai: GLM 4.7 Flash $0.00006 Xiaomi: MiMo-V2-Flash $0.00008 Qwen: Qwen3 Coder Next $0.00013 Qwen: Qwen3 Coder Next $0.00014 Google: Gemini 3.1 Pro Preview $0.03134 $0.00000 $0.03134 |
| Puzzle Solving | 0/3 | 2.00 Puntaje promedio en todas las pruebas de benchmark. Rango: #20/27 27% Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Qwen: Qwen3.5 Plus 2026-02-15 10.00 Anthropic: Claude Sonnet 4.6 10.00 Z.ai: GLM 5 10.00 StepFun: Step 3.5 Flash 2.00 Z.ai: GLM 4.7 Flash 1.00 1.00 10.00 | 4.96 La consistencia refleja la estabilidad entre repeats (10 = muy consistente, incluso si es consistentemente incorrecto). Rango: #25/27 8% Google: Gemini 3 Flash Preview 10.00 Google: Gemini 3.1 Pro Preview 10.00 Google: Gemini 3 Pro Preview 10.00 Qwen: Qwen3.5 Plus 2026-02-15 10.00 OpenAI: GPT-5.2 10.00 StepFun: Step 3.5 Flash 4.96 MiniMax: MiniMax M2.5 4.79 4.79 10.00 | 33.3% Tasa de aciertos por intento = intentos correctos / intentos totales en todos los repeats. Rango: #18/27 35% Google: Gemini 3 Flash Preview 100.0% Google: Gemini 3.1 Pro Preview 100.0% Google: Gemini 3 Pro Preview 100.0% Qwen: Qwen3.5 Plus 2026-02-15 100.0% Anthropic: Claude Sonnet 4.6 100.0% StepFun: Step 3.5 Flash 33.3% OpenAI: GPT-4o-mini 0.0% 0.0% 100.0% | 2 Pruebas inestables tuvieron resultados mixtos entre repeats (al menos un acierto y un fallo). Rango: #27/27 0% Google: Gemini 3 Flash Preview 0 Google: Gemini 3.1 Pro Preview 0 Google: Gemini 3 Pro Preview 0 Qwen: Qwen3.5 Plus 2026-02-15 0 OpenAI: GPT-5.2 0 StepFun: Step 3.5 Flash 2 OpenAI: GPT-5 Nano 2 0 2 | 9.22 Mide la claridad, eficiencia y consistencia del razonamiento de forma independiente de la corrección final. Rango: #5/17 75% Z.ai: GLM 5 9.50 Anthropic: Claude Sonnet 4.6 9.44 Anthropic: Claude Opus 4.6 9.44 MoonshotAI: Kimi K2.5 9.26 StepFun: Step 3.5 Flash 9.22 Qwen: Qwen3 Coder Next 4.33 4.33 9.50 | $0.00000 Costo total Rango: #1/27 100% StepFun: Step 3.5 Flash $0.00000 Z.ai: GLM 4.7 Flash $0.00008 OpenAI: GPT-4o-mini $0.00028 xAI: Grok 4.1 Fast $0.00053 Qwen: Qwen3 Coder Next $0.00058 Qwen: Qwen3.5 Plus 2026-02-15 $0.05508 $0.00000 $0.05508 |