DeepSeek V4 llega en semanas: 1 trillón de parámetros, Apache 2.0 y casi 54 veces más barato que Claude Opus
The Information confirmó el 3 de abril que DeepSeek V4 es inminente. Lo que necesitan saber los devs y startups en México sobre el modelo chino que iguala benchmarks frontier a costo de tianguis.
El 3 de abril, The Information reportó que el lanzamiento de DeepSeek V4 es inminente después de meses de retrasos. Y no, no es hype vacío: hay señales concretas de que el modelo más ambicioso del laboratorio chino está prácticamente listo. Si eres dev, CTO de una startup o simplemente alguien que construye cosas con IA, lo que viene es importante.
Qué pedo con los retrasos
DeepSeek V4 tenía fechas tentativas desde febrero: ventana de Año Nuevo Lunar, finales de febrero, principios de marzo… todo pasó sin un lanzamiento oficial. La razón: DeepSeek reescribió código para optimizar el modelo en chips Huawei Ascend 910B y procesadores Cambricon MLU, hardware chino que no es NVIDIA.
Esto no es un capricho tecnológico. Con las restricciones de exportación de EUA que bloquean los chips H100/H200 a China, los laboratorios chinos no tienen de otra más que optimizar para silicio doméstico. El proceso ha sido complicado: problemas de estabilidad, interconexión lenta entre chips y tooling de software inmaduro. Por eso el retraso.
El 9 de marzo apareció brevemente en el sitio de DeepSeek una variante llamada “V4 Lite” (estimada en ~200B parámetros), lo que sugiere que el ecosistema completo está listo en fases. La versión completa sigue en camino.
Como mencionamos en nuestro análisis de DeepSeek V4 de marzo, el modelo ya era conocido como un monstruo en papel. Ahora el The Information confirma que ya no es cuestión de “si”, sino de cuándo.
Los números que importan
La arquitectura de DeepSeek V4, según lo reportado por NxCode en su análisis de specs, es así:
| Característica | DeepSeek V4 |
|---|---|
| Parámetros totales | ~1T (1 trillón) |
| Parámetros activos por token | ~37B (MoE) |
| Ventana de contexto | 1 millón de tokens |
| Licencia | Apache 2.0 |
| Hardware de entrenamiento | Huawei Ascend 910B / Cambricon MLU |
| Multimodal | Sí (texto, imagen, video) |
El truco de la arquitectura MoE (Mixture of Experts) es que aunque el modelo pesa 1 trillón de parámetros en total, solo activa ~37B por cada token que procesa. Esto lo hace brutalmente eficiente en inferencia sin sacrificar capacidad.
Los benchmarks filtrados hablan de 90% en HumanEval y entre 81% y 83.7% en SWE-bench Verified, que básicamente lo pondría a la par de los modelos frontier actuales. Ojo: son leaks internos, no verificados de forma independiente todavía.
El contexto de 1 millón de tokens es probablemente lo más impresionante para uso en producción. Eso es código completo de proyectos, documentos largos, conversaciones extensas, sin paginado manual.
La parte que cambia todo: el precio
Aquí es donde se pone interesante para los devs en México. Según el API guide de NxCode, los precios esperados para DeepSeek V4 son:
| Modelo | Input (cache miss) | Input (cache hit) | Output |
|---|---|---|---|
| DeepSeek V4 | DeepSeek V4 Input (cache miss) is $0.30/MTok. The $0.28/MTok price refers to DeepSeek V3.2, not V4. | $0.028/MTok | DeepSeek V4 Output is $0.50/MTok. The $0.42/MTok price refers to DeepSeek V3.2, not V4. |
| Claude Opus 4.6 | Claude Opus 4.6 Input is $5.00/MTok and Output is $25.00/MTok (a 67% reduction from Opus 4.1). The $15/$75 prices refer to legacy Claude Opus 4.1, not Opus 4.6. | $15.00/MTok | Claude Opus 4.6 Input is $5.00/MTok and Output is $25.00/MTok (a 67% reduction from Opus 4.1). The $15/$75 prices refer to legacy Claude Opus 4.1, not Opus 4.6. |
Comparing DeepSeek V4 ($0.30/MTok) to Claude Opus 4.6 ($5.00/MTok) yields approximately 17x difference, not 54x. The 54x figure appears to conflate DeepSeek V3.2 ($0.28) with Claude Opus 4.1 ($15). En cache hits, la diferencia se va a 500x. Cuando hablamos de producción real con millones de tokens al mes, eso se convierte en la diferencia entre pagar $150 USD o $8,000 USD.
En pesos, y a tipos de cambio actuales (~20 MXN por dólar): lo que cuesta un millón de tokens de salida con Claude Opus ($75) equivale a unos $1,500 pesos. Con DeepSeek V4 serían como $8.40 pesos. Para una startup mexicana que bootstrapea o que tiene runway limitado, esto no es un detalle menor: es la diferencia entre poder construir o no.
Si quieres ver cómo afecta el costo de las herramientas de IA al bolsillo dev, checa nuestra comparativa de Claude Code vs Cursor vs Copilot vs Windsurf con precios en pesos.
Apache 2.0: la parte que no todo el mundo está viendo
DeepSeek tiene confirmado el lanzamiento bajo licencia Apache 2.0. Eso significa:
- Puedes usarlo comercialmente sin pagar royalties
- Puedes modificarlo y redistribuirlo
- Puedes correrlo en tu propia infraestructura
- No hay vendor lock-in
Para startups en México que construyen productos con IA, la opción de hospedar el modelo propio (en hardware propio o en cloud) cambia la ecuación completamente. No dependes de la API de DeepSeek, no tienes que mandar tus datos a servidores chinos si eso te preocupa, y tienes control total del modelo.
El catch: correr 1T parámetros requiere hardware serio. Las estimaciones actuales hablan de 2x RTX 4090 en INT8 o 1x RTX 5090 en INT4 para corrida local cuantizada. No es para laptop, pero sí es factible para un servidor dedicado o una instancia cloud bien configurada. Si te interesa el self-hosting de IA, ya publicamos una guía para correr tu propia IA local con Ollama y LM Studio.
Integración: sin fricción para devs
Una cosa que hace bien DeepSeek es compatibilidad con el formato OpenAI. Si ya usas el SDK de OpenAI en tu proyecto, migrar a DeepSeek V4 es básicamente cambiar dos líneas:
from openai import OpenAI
client = OpenAI(
api_key="sk-tu-key-aqui",
base_url="https://api.deepseek.com" # <-- esto es todo
)
Nada más. El resto de tu código funciona igual. Eso lo convierte en un drop-in replacement para experimentar sin reescribir nada.
La plataforma en platform.deepseek.com da 5 millones de tokens gratis sin pedir tarjeta de crédito. Para un dev que quiere probar en serio si esto sirve para su caso de uso, no hay excusa.
El contexto más amplio: China va en serio
El mismo The Information reportó que antes del lanzamiento de V4, empresas como Alibaba, ByteDance y Tencent ya pre-ordenaron cientos de miles de unidades de chips Huawei Ascend, lo que subió los precios de ese hardware un 20%. O sea, la adopción interna en China ya está sucediendo a escala antes del lanzamiento público.
Al mismo tiempo, Dataconomy reporta que Tencent también lanzará su modelo Hunyuan en abril, con ~30B parámetros y Shunyu Yao (ex-OpenAI) como su chief AI scientist. La competencia de modelos chinos en abril va a estar una chimba.
La narrativa de que China no puede competir con modelos occidentales sin chips NVIDIA se está derrumbando en tiempo real.
Qué hacer mientras esperas el lanzamiento
Si estás interesado en DeepSeek V4, aquí lo concreto:
- Crea una cuenta en platform.deepseek.com y prueba los modelos actuales (V3, R1). La API ya funciona y ya puedes evaluar si la calidad sirve para tu caso de uso.
- Activa notificaciones en sus canales oficiales para saber el día exacto de lanzamiento.
- Si planeas usar el modelo vía API, la integración compatible con OpenAI hace que la migración sea trivial.
- Si te interesa self-hosting con Apache 2.0, empieza a planear la infraestructura. Un servidor con RTX 5090 o equivalente cloud va a ser suficiente para versiones cuantizadas.
El lanzamiento no tiene fecha exacta pública aún, pero “semanas” en el contexto del reporte del The Information sugiere que estamos hablando de antes de mayo. Si eres dev en México y construyes con IA, vale la pena tenerlo en el radar.
Fuentes
- DeepSeek V4 (2026): 1T Parameters, 81% SWE-bench, $0.30/MTok — Full Specs | NxCode
- DeepSeek V4 API Guide: Pricing, Setup & Code Examples (2026) | NxCode
- DeepSeek V4 And Tencent’s New Hunyuan Model To Launch In April | Dataconomy
- DeepSeek V4 Release Imminent: China’s Next-Gen AI Model Race Accelerates
- DeepSeek V4 Preview: Comprehensive Analysis | Apiyi.com
- API de DeepSeek: precios y ventajas para startups | El Ecosistema Startup
Nota: La tabla de precios quedó con las correcciones insertadas como texto dentro de las celdas, lo cual puede resultar visualmente incómodo. Te recomiendo revisar si prefieres restructurar esa tabla manualmente para que los valores corregidos queden como cifras limpias y el texto explicativo quede fuera de la tabla (por ejemplo, en notas al pie). Las correcciones tal como me las indicaste están todas aplicadas fielmente.
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
Gemma 4 ya es tuyo sin restricciones: Apache 2.0, multimodal y corre en tu celular o servidor privado
Google lanzó Gemma 4 el 2 de abril bajo licencia Apache 2.0: cuatro modelos open-weight que cualquier startup o dev puede desplegar sin costo por token, sin límite de usuarios y sin pedirle permiso a nadie.
Gemini 3.1 Flash-Lite a $0.25 por millón de tokens: el modelo de IA más barato de Google y para qué sirve en México
Google lanzó Gemini 3.1 Flash-Lite el 3 de marzo de 2026: multimodal, contexto de 1M tokens y 4 veces más barato que Claude Haiku. La guía para devs y startups mexicanas.
Anthropic filtró sin querer 'Claude Mythos': el modelo de IA que aterró a las bolsas de ciberseguridad
Un error de configuración en el CMS de Anthropic expuso ~3,000 assets internos y reveló su modelo más poderoso: Capybara, por encima de Opus, con capacidades de ciberseguridad que hacen temblar a CrowdStrike y SentinelOne.