tech

DeepSeek V4 llegó hoy y cuesta 8 veces menos que GPT-5.5: el modelo chino que vuelve a sacudir la carrera de la IA

tech · 7 min de lectura

DeepSeek V4 llegó hoy y cuesta 8 veces menos que GPT-5.5: el modelo chino que vuelve a sacudir la carrera de la IA

DeepSeek lanzó hoy V4-Pro y V4-Flash: 1.6 billones de parámetros, 1M de contexto, y precios que hacen ver ridículo a GPT-5.5 y Claude Opus 4.7. Lo que cambia para devs y startups en México.

DeepSeek V4 llegó hoy y cuesta 8 veces menos que GPT-5.5: el modelo chino que vuelve a sacudir la carrera de la IA

Hace exactamente un año, DeepSeek le pegó en la cara a toda la industria de IA de EUA con R1. Hoy, 24 de abril de 2026, lo volvieron a hacer. Lanzaron V4-Pro y V4-Flash, y la discusión de “¿cuál modelo pagar?” acaba de cambiar de forma muy seria para cualquier dev o startup en México.

Qué es lo que salió hoy

DeepSeek soltó dos modelos bajo el mismo lanzamiento:

DeepSeek V4-Pro: el buque insignia. 1.6 billones de parámetros totales con solo 49 billones activos por token gracias a su arquitectura Mixture of Experts (MoE). Ventana de contexto de 1 millón de tokens. Disponible ya en API y en Hugging Face con pesos abiertos.

DeepSeek V4-Flash: el modelo ligero. 284 billones de parámetros totales, 13 billones activos. Piénsalo como el GPT-4o mini del ecosistema DeepSeek: rápido, barato y sorprendentemente capaz para la mayoría de tareas del día a día.

Ambos tienen dos modos de operación: Thinking (razonamiento extendido, tipo o1) y Non-Thinking (respuesta rápida). En chat.deepseek.com los encuentras como Expert Mode e Instant Mode respectivamente.

La arquitectura usa un mecanismo de atención novedoso que combina compresión por token con DeepSeek Sparse Attention (DSA). El resultado práctico: para contextos de 1M de tokens, V4-Pro usa solo el 27% de los FLOPs de una pasada simple y el 10% del tamaño de KV cache respecto a su antecesor V3.2. Eso explica los precios agresivos.

Los benchmarks: dónde aplasta y dónde pierde

La neta aquí es ser honesto porque DeepSeek no gana en todo, pero donde gana, gana bien.

BenchmarkV4-ProGemini 3.1 ProClaude Opus 4.7GPT-5.5
LiveCodeBench93.5%91.7%88.8%n/d
Codeforces rating3206n/dn/d3168
SWE-bench Verified80.6%n/d~80.8%58.6%
Terminal-Bench 2.067.9%n/dn/d82.7%
SimpleQA57.9%75.6%n/dn/d
HLE37.7%44.4%40.0%39.8%

En programación competitiva y coding en general, V4-Pro es el rey actual entre modelos disponibles en API. TechCrunch confirmó hoy que DeepSeek “closes the gap with frontier models” en razonamiento y código.

Donde se queda corto es en tareas agénticas complejas (GPT-5.5 le saca 15 puntos en Terminal-Bench) y en conocimiento general tipo SimpleQA (Gemini 3.1 Pro le come el mandado por casi 18 puntos). Simon Willison lo resumió bien en su análisis de hoy: “almost on the frontier, a fraction of the price”.

Tradúcelo así: si haces agentes autónomos complejos que navegan terminales y ejecutan tareas largas, GPT-5.5 todavía tiene ventaja real. Si programas, analizas código o trabajas con razonamiento matemático, V4-Pro es tu wey.

El precio: la killer feature de verdad

Aquí es donde se pone bueno. Los precios de API de hoy:

ModeloInput /M tokensOutput /M tokensEn pesos (aprox.)
DeepSeek V4-Flash$0.14 USD$0.28 USD~$5.60 MXN output
DeepSeek V4-Pro$1.74 USD$3.48 USD~$70 MXN output
GPT-5.4$2.50 USD$15.00 USD~$300 MXN output
Claude Opus 4.7$3.00 USD$25.00 USD~$500 MXN output
GPT-5.5n/d$30.00 USD~$600 MXN output

V4-Pro cuesta 8.6 veces menos por token de output que GPT-5.5. Casi 7 veces menos que Claude Opus 4.7.

Para una startup en México que está quemando 10 millones de tokens de output al mes en su producto, el costo sería aproximadamente $6,000,000 pesos mensuales con GPT-5.5 versus $700,000 pesos con V4-Pro (usando tasa de ~20 pesos/USD). Eso no es un detalle técnico, es la diferencia entre que el producto sea viable o no.

Y V4-Flash es directamente una chimba: $0.28 USD por millón de tokens de output es el modelo más barato en la categoría de modelos capaces que existe ahora mismo. Para tareas de clasificación, resumen o Q&A simple, V4-Flash es la opción obvia.

Lo que esto significa para devs y startups en México

Si ya estás explorando integraciones de IA en tu stack, este lanzamiento cambia el cálculo de costo-rendimiento de forma importante. Hablamos de modelos que compiten con Opus 4.7 en código y que puedes usar en producción con precios que no te van a reventar el presupuesto.

Tres escenarios donde V4-Pro tiene sentido inmediato hoy:

  1. Herramientas de código: autocomplete avanzado, revisión de PRs, generación de tests. LiveCodeBench de 93.5% no miente.
  2. Análisis de documentos largos: con 1M de contexto, puedes meter un codebase completo o un contrato de 800 páginas.
  3. Pipelines de procesamiento masivo: cuando tienes volumen alto, la diferencia de precio es brutal.

Si ya usas la API de OpenAI o Anthropic, nota que V4-Pro es compatible con ambos formatos de API (ChatCompletions y Anthropic API), lo que hace la migración bastante menos dolorosa.

Para los que quieren experimentar sin pagar API, los pesos del modelo están en Hugging Face bajo licencia MIT. Si tienes el hardware, puedes correrlo tú mismo. Si quieres algo más ligero para correr local, en nuestra guía de cómo correr tu propia IA local en 2026 con Ollama y LM Studio hay opciones más manejables para hardware normal.

Los límites reales que nadie te está diciendo

Hay que ser honestos: V4-Pro no es perfecto y las limitaciones importan según tu caso de uso.

Tareas agénticas complejas: si tu app manda al modelo a ejecutar comandos, navegar interfaces, o completar workflows de múltiples pasos sin supervisión, GPT-5.5 todavía le saca ventaja significativa (82.7% vs 67.9% en Terminal-Bench). No cambies si esto es tu core.

Conocimiento general actualizado: SimpleQA de 57.9% vs 75.6% de Gemini 3.1 Pro indica que para preguntas de conocimiento general amplio, el modelo chino queda corto. 17 puntos de diferencia no es poca cosa.

Servidores en China: esto no es un detalle menor para algunas empresas. Los datos pasan por infraestructura de DeepSeek en China, lo que puede ser un no-go dependiendo del tipo de datos que manejes o de tus acuerdos con clientes. Si te preocupa, los pesos abiertos y hostearlo tú mismo resuelven eso.

Estos trade-offs son exactamente lo que ya analizamos al comparar herramientas en claude code vs cursor vs copilot vs windsurf: el modelo más caro no siempre gana en tu caso de uso específico.

Dónde acceder ya mismo

  • Chat directo: chat.deepseek.com sin costo, con Expert Mode para V4-Pro
  • API: platform.deepseek.com con precios ya disponibles
  • Pesos en Hugging Face: deepseek-ai/DeepSeek-V4-Pro bajo licencia MIT
  • OpenRouter: también disponible ahí si prefieres un solo proveedor de API para varios modelos

Los modelos legacy deepseek-chat y deepseek-reasoner se retiran el 24 de julio de 2026, así que si ya usas DeepSeek en producción, migra antes.

El veredicto al chile

DeepSeek no lanzó el mejor modelo del mundo hoy. Ese título sigue disputado entre GPT-5.5 y Claude Opus 4.7 dependiendo de la tarea. Pero lanzaron el mejor modelo que puedes pagar sin que te duela el bolsillo, y para coding y razonamiento matemático, están peleando en la misma liga que los líderes.

Si tienes un side project, una startup o eres dev que paga la API de su bolsa, la pregunta no es si probar DeepSeek V4-Pro, sino por qué no lo has abierto ya.

La carrera de la IA lleva meses siendo dominada por las empresas de San Francisco. China acaba de recordarle al mundo que no va a dejar de competir, y que tiene una estrategia diferente: no necesitas el modelo más poderoso si el tuyo cuesta 8 veces menos y hace el 90% del trabajo igual de bien.

Para más contexto sobre cómo posiciona esto a los diferentes modelos de IA en el mercado actual, revisa nuestra comparativa de ChatGPT vs Claude vs Gemini vs Grok vs DeepSeek que actualizamos con frecuencia.

¿Ya lo probaste? ¿O sigues pagando GPT-5.5 por costumbre? Cuéntame en los comentarios.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar