Categoría AI BENCHY
Ranking de Programación
Mira qué modelos de IA rinden mejor en Programación, cuáles se mantienen fiables y dónde aparecen las mayores diferencias. Ordenar por: Tiempo de respuesta (promedio) ↑.
Modelos mostrados
15
Promedio de Puntuación de Programación
7.2
Mejor modelo
Gemini 3 PRO Preview 3.0| Rango | Modelo | Empresa | Puntuación de Programación | Puntuación | Pruebas correctas | Tiempo de respuesta (promedio) |
|---|---|---|---|---|---|---|
| #26 | GPT-5.2 Chat none | OpenAI | 10.0 | 7.9 | 1/1 | 8.97s |
| #33 | GPT-5.3 Chat none | OpenAI | 10.0 | 7.7 | 1/1 | 9.32s |
| #79 | gpt-oss-120b none | OpenAI | 4.3 | 5.2 | 0/1 | 9.57s |
| #71 | GLM 5.1 none | Z.ai | 5.1 | 5.6 | 0/1 | 9.79s |
| #16 | GLM 5 Turbo medium | Z.ai | 10.0 | 8.1 | 1/1 | 12.3s |
| #14 | GPT-5.4 medium | OpenAI | 10.0 | 8.2 | 1/1 | 13.0s |
| #38 | MiMo-V2-Flash medium | Xiaomi | 4.7 | 7.5 | 0/1 | 13.0s |
| #35 | GPT-5.4 Nano medium | OpenAI | 10.0 | 7.6 | 1/1 | 13.4s |
| #29 | GLM 5V Turbo medium | Z.ai | 10.0 | 7.8 | 1/1 | 13.8s |
| #37 | GPT-5.2 medium | OpenAI | 10.0 | 7.5 | 1/1 | 15.1s |
| #13 | Gemini 2.5 Flash medium | 10.0 | 8.2 | 1/1 | 16.2s | |
| #2 | Gemini 3.1 Pro Preview medium | 10.0 | 9.6 | 1/1 | 19.9s | |
| #87 | GLM 4.7 Flash medium | Z.ai | 3.6 | 4.6 | 0/1 | 21.3s |
| #34 | Claude Opus 4.6 medium | Anthropic | 10.0 | 7.6 | 1/1 | 23.1s |
| #42 | GPT-5 Mini medium | OpenAI | 10.0 | 7.0 | 1/1 | 23.2s |