ia

DeepSeek V4: el monstruo chino de 1 trillón de parámetros que no necesita chips de Nvidia

ia · 5 min de lectura (actualizado)

DeepSeek V4: el monstruo chino de 1 trillón de parámetros que no necesita chips de Nvidia

China acaba de soltar la bomba: DeepSeek V4 llega con un trillón de parámetros, soporte multimodal, y corre enteramente en hardware chino. Aquí te explico por qué esto cambia todo.

DeepSeek V4: el monstruo chino de 1 trillón de parámetros que no necesita chips de Nvidia

Mientras tú andabas dormido en lo que iba de marzo, China soltó una de las noticias más pesadas del año en IA. DeepSeek V4 se filtró con especificaciones que hacen ver a GPT-5.4 y Claude Opus 4.6 como si cobraran de más. Y lo más perturbador no son los parámetros, ni los benchmarks: es que el wey corre enteramente en chips chinos. Sin Nvidia. Sin permiso de Estados Unidos.

Aquí te cuento todo lo que se sabe al chile.

¿Qué es DeepSeek V4 y por qué importa?

DeepSeek ya te había dado un susto en 2025 cuando tiró V3 y la gente se preguntó cómo China estaba haciendo modelos de frontera a una fracción del costo de OpenAI. V4 es eso, pero con esteroides.

Según reportó NxCode y confirmó QverLabs con datos de filtraciones internas, DeepSeek V4 es:

  • Arquitectura: Mixture-of-Experts (MoE) con 1 trillón de parámetros totales, pero solo ~32 mil millones activos por inferencia
  • Contexto: Más de 1 millón de tokens (el doble de lo que usas normalmente)
  • Multimodal nativo: Texto, imagen, video y audio, todo entrenado junto, no parcheado después
  • Hardware: Optimizado para chips Huawei Ascend y Cambricon, los de fabricación china

Ese último punto es el que tiene nervioso a todo Silicon Valley.

El chip chino que nadie quería ver llegar

Estados Unidos lleva años con controles de exportación de chips avanzados precisamente para frenar el desarrollo de IA en China. La apuesta era: sin chips de Nvidia, sin IA de frontera. Pues bien, esa apuesta se está yendo al caño.

DeepSeek entrenó V4 en Huawei Ascend, que no es el H100 de Nvidia pero claramente está siendo suficiente. Como diría cualquier argentino: “re piola el movimiento, che”. China está construyendo su propia pila tecnológica de IA de principio a fin, y V4 es la demostración más contundente hasta ahora de que esa estrategia está funcionando.

La innovación técnica que lo hace posible se llama Manifold-Constrained Hyper-Connections, que resuelve problemas de estabilidad en el entrenamiento a escala de trillones de parámetros. También usan algo llamado Engram Conditional Memory para manejar contextos gigantes sin que el modelo se pierda.

Los benchmarks que se están discutiendo (y la advertencia importante)

Aquí hay que ser honestos: a la fecha de este artículo, DeepSeek V4 no tiene una release oficial confirmada con documentación pública de API. Los números que circulan vienen de filtraciones internas que aún no han sido verificadas de forma independiente, como reportó EvoLink en su análisis del 6 de marzo.

Lo que sí se sabe con certeza, según Evolink y Awesome Agents, es que V4 lidera en evaluaciones multilingüe sobre GPT-5.4 y Claude Opus 4.6. En tareas de razonamiento sobre documentos largos y refactorización de código base completo, los números internos lo ponen a la par o arriba de la competencia.

Para lo que sí hay datos verificados y públicos, el DeepSeek V3.2, que es el modelo actual disponible en API, ya es brutalmente competitivo:

ModeloInput por 1M tokensOutput por 1M tokens
DeepSeek V3.2$0.28 USD$0.42 USD
GPT-5.4$2.50 USD$15.00 USD
Claude Opus 4.6$5.00 USD$25.00 USD

En pesos mexicanos, con un tipo de cambio apróximado de 17-18 pesos por dólar: DeepSeek V3.2 te sale en menos de 5 pesos por millón de tokens de entrada. Claude Opus 4.6 te sale en más de 85 pesos por millón. La diferencia es monstruosa.

¿Qué significa esto para devs en México y LATAM?

La neta, para la mayoría de los mortales que están construyendo apps con IA, esto es excelente noticia. La competencia entre modelos está forzando precios a la baja y capacidades a la alza. Hace 18 meses un contexto de 1 millón de tokens era ciencia ficción para presupuestos normales. Hoy DeepSeek lo da a un precio que cualquier startup de Monterrey o CDMX puede pagar.

Si estás probando modelos para tu proyecto ahora mismo:

  • DeepSeek V3.2 ya está disponible vía API oficial en platform.deepseek.com. Para proyectos personales o startups con presupuesto ajustado, es la opción más sensata en precio/desempeño.
  • GPT-5.4 vale la pena si necesitas razonamiento profundo con herramientas y computer use, según los benchmarks verificados de BuildFastWithAI.
  • Claude Opus 4.6 sigue ganando en coding tasks con SWE-Bench Verified, pero el precio es el más alto de los tres.

El elefante en el cuarto: ¿Se puede confiar en DeepSeek?

Esta pregunta no la puedo ignorar. DeepSeek es una empresa china, y eso trae implicaciones de privacidad y soberanía de datos que son legítimas. Para datos sensibles de usuarios mexicanos, o para proyectos donde la privacidad importa, tienes que leer con cuidado sus términos de servicio y política de datos, como lo harías con cualquier API de terceros.

Para experimentación, prototipos, y casos donde los datos no son críticos, el costo-beneficio habla solo.

¿Cuándo llega la versión oficial de V4?

No hay fecha confirmada. Las filtraciones sugieren que está cerca, pero DeepSeek no ha anunciado nada oficialmente. Cuando llegue, probablemente va a sacudir el mercado de la misma forma en que lo hizo V3: primero incredulidad, luego benchmarks verificados, luego ajuste de precios de todos los demás.

Mientras tanto, si aún no has probado DeepSeek V3.2 en serio, este es buen momento para hacerlo. Ya está disponible, ya tiene documentación decente, y ya demuestra de qué es capaz esta empresa.

¿Ya estás usando algún modelo de DeepSeek en tus proyectos? ¿O sigues con ChatGPT por costumbre aunque te esté costando más? Cuéntame en los comentarios, que esa discusión siempre está buena.

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar