OpenAI lanza GPT-5.5 hoy: el modelo 'Spud' ya está en ChatGPT Plus y esto es todo lo que cambia (y si vale la pena pagarlo en México)
GPT-5.5, el modelo 'Spud' de OpenAI, llegó hoy 23 de abril a ChatGPT Plus y Pro. Te decimos qué cambió en código, agentes y multimodal, qué no publicaron en benchmarks y si $400 MXN al mes sigue valiendo la pena.
Esta mañana OpenAI publicó en X un mensaje que solo decía “NS41”. Nada más. Sin contexto, sin comunicado de prensa, sin Sam Altman en un escenario con las luces apagadas. Solo cuatro caracteres que, al decodificarlos desde Base64, revelan el número “5.5”. Así, con ese nivel de cringe corporativo disfrazado de misterio, OpenAI lanzó GPT-5.5 hoy 23 de abril de 2026. El nombre en clave interno: Spud. Como la papa. En serio.
Y sí, si tienes ChatGPT Plus o Pro, ya lo puedes usar desde hoy mismo.
Qué es GPT-5.5 “Spud” y por qué le llaman así
Spud es el nombre de código interno que usó el equipo de OpenAI durante el desarrollo. No es el primero raro: GPT-4 tuvo “Arrakis”, y modelos anteriores tuvieron nombres igual de aleatorios. No tiene ningún significado profundo, la neta.
Lo que sí importa es lo que trae el modelo. Según la información disponible al momento de publicar, GPT-5.5 es un modelo multimodal unificado: procesa texto, imágenes, audio y video en un solo sistema, sin los saltos entre modelos especializados que tenía la generación anterior. La ventana de contexto llega a 256,000 tokens en ChatGPT y hasta 1 millón de tokens por la vía de la API, lo que básicamente significa que puedes pasarle libros enteros, repositorios de código o sesiones largas de trabajo sin que el modelo “olvide” lo que dijo al principio.
El foco principal, según Greg Brockman, es lo agentico: “Es un gran paso hacia una computación más intuitiva y orientada a agentes”. En términos prácticos, GPT-5.5 puede ejecutar tareas de múltiples pasos usando herramientas reales: navega la web, corre código, hace llamadas a APIs externas y encadena todo eso sin que tú estés dándole instrucciones a cada rato.
En cuanto al hardware detrás, este modelo fue preentrenado en el campus Stargate de Abilene, Texas, donde Oracle y OpenAI tienen operativas las primeras instalaciones con racks de NVIDIA GB200 Blackwell desde septiembre de 2025. El plan completo llega a más de 100,000 GPUs cuando terminen de construir los edificios restantes a mediados de 2026.
¿Quién lo tiene ya? Disponibilidad en México
Esto es lo importante para los que pagan suscripción:
| Tier | GPT-5.5 | Thinking Mode | GPT-5.5 Pro |
|---|---|---|---|
| Plus ($20 USD/~$380 MXN/mes) | Sí | Sí | No |
| Pro ($200 USD/~$3,800 MXN/mes) | Sí | Sí | Sí |
| Business / Enterprise | Sí | Sí | Sí |
| Gratuito | No todavía | No | No |
Si usas ChatGPT gratis, el acceso llega hacia finales de mayo o junio de 2026, según lo que dijo OpenAI. Por ahora, a esperar.
No hay cambios de precio en las suscripciones. Plus sigue a $20 USD y Pro a $200 USD. En pesos mexicanos, dependiendo del tipo de cambio del día, eso es aproximadamente $380 y $3,800 MXN respectivamente.
Para los que trabajan con la API directamente, el precio es $5 USD por millón de tokens de entrada y $30 USD por millón de tokens de salida. También hay un modo batch/flex al 50% de esa tarifa, lo que baja a $2.50 y $15 respectivamente. La API aún no está completamente disponible mientras OpenAI finaliza las capas de seguridad adicionales.
Dónde realmente mejora: código y flujos agénticos
Los dos puntos donde GPT-5.5 da un brinco visible son coding y automatización de tareas largas.
En Terminal-Bench 2.0, un benchmark que mide tareas reales de terminal y programación, GPT-5.5 sacó 82.7% contra el 75.1% de GPT-5.4. En Expert-SWE, una evaluación de ingeniería de software aplicada, subió de 68.5% a 73.1%. No son números de ciencia ficción, pero para quien usa ChatGPT para refactorizar código, debuggear o escribir tests, esa diferencia sí se nota en el día a día.
Los flujos de JSON confiable también mejoraron: OpenAI reporta menos del 0.1% de fallos en output estructurado, lo que importa mucho si tienes pipelines que dependen de respuestas en formato fijo.
Si ya leíste nuestra comparativa de herramientas de IA para programar en 2026, sabes que el coding es hoy el campo de batalla más competido entre modelos.
El detalle que no debes ignorar: sin benchmarks oficiales contra la competencia
Aquí viene el punto que me parece importante subrayar: OpenAI lanzó GPT-5.5 sin publicar una comparativa oficial contra Gemini ni contra Claude. Los únicos números que salieron son los internos (Terminal-Bench y Expert-SWE). Nada de MMLU, nada de GPQA, nada de MATH. Ningún benchmark académico de terceros al momento del lanzamiento.
Esto no es nuevo. OpenAI tiene historial de lanzar modelos con benchmarks selectivos y esperar a que la comunidad haga las comparaciones duras. El escepticismo es legítimo, especialmente cuando la competencia está re piola este trimestre.
El contexto competitivo: ¿qué tiene la competencia?
Porque GPT-5.5 no llega en un vacío. Hay dos jugadores que merecen atención esta semana:
Gemini 3.1 Pro (Google): Tiene precios de API más bajos ($2 input / $12 output por MTok) y en el benchmark ARC-AGI-2 reporta 77.1%. Sin acceso al número equivalente de GPT-5.5 en ese benchmark, no puedes comparar directamente. Pero en costo, Gemini gana.
Claude Opus 4.7 (Anthropic): El modelo más caro de la lista ($5 input / $25 output por MTok). Si ya lo usas o te interesa, llegó hace unos días con cambios fuertes en visión y precios menores que el Opus anterior. En documentación de código sigue siendo el estándar más alto para muchos equipos.
DeepSeek V4: El argumento más fuerte contra pagar cualquier suscripción premium. Como ya documentamos en nuestro análisis del modelo chino de 1 trillón de parámetros, cuesta $0.30 per million input tokens y $0.50 per million output tokens. Si trabajas con volumen alto de API, la diferencia de costo es absurda.
| Modelo | Input (por MTok) | Output (por MTok) | Multimodal |
|---|---|---|---|
| GPT-5.5 | $5.00 | $30.00 | Sí (texto+img+audio+video) |
| Gemini 3.1 Pro | $2.00 | $12.00 | Sí |
| Claude Opus 4.7 | $5.00 | $25.00 | Sí |
| DeepSeek V4 | $0.28 | $1.10 | Parcial |
¿Vale la pena pagarlo en México?
Depende exactamente de lo que haces con ChatGPT.
Si lo usas como herramienta de escritura casual, resúmenes o consultas básicas, la versión gratuita (cuando llegue a finales de mayo) probablemente te alcanza. No tiene mucho sentido pagar $380 MXN al mes por eso.
Si lo usas para código, agentes automáticos, análisis de documentos largos o flujos que requieren que el modelo use herramientas, entonces Plus sí tiene sentido y GPT-5.5 es un upgrade real sobre 5.4, especialmente con la ventana de contexto ampliada.
Si eres empresa o desarrollador con uso intensivo de API, el precio de $5/$30 por MTok duele comparado con Gemini. Ahí, la decisión no es “¿GPT-5.5 es bueno?”, sino “¿GPT-5.5 es suficientemente mejor para justificar 2.5x el costo de Gemini?”. Y sin benchmarks comparativos publicados por OpenAI, esa pregunta todavía no tiene respuesta oficial.
Lo que sí está claro: Spud llega con mejoras reales en coding y agentes, con una arquitectura multimodal unificada que la generación anterior no tenía, y entrenado en el hardware más pesado que OpenAI ha usado hasta la fecha. Pero la falta de transparencia en benchmarks competitivos sigue siendo el aguijón que OpenAI no puede sacarse de encima.
¿Ya lo probaste hoy? ¿Notaste diferencia real con GPT-5.4? Cuéntanos abajo cómo te fue con los primeros prompts.
Fuentes
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
El token es la nueva moneda de la IA: qué es, cuánto cuesta y cómo gastar menos antes de que tu empresa se quede sin presupuesto
El token pasó de ser un concepto técnico a convertirse en el nuevo KPI de las empresas. Precios actuales, por qué el español te cuesta más y cómo reducir tu factura de IA hasta 85%.
ChatGPT Business ya cuesta $20 por asiento y Codex se cobra por uso: la calculadora que tu empresa en México necesita hacer ahorita
OpenAI redujo el precio de ChatGPT Business a $20/seat anual y lanzó asientos Codex solo pay-as-you-go. Si tienes un equipo de devs en México, aquí están los números reales.
DeepSeek V4 llegó hoy y cuesta 8 veces menos que GPT-5.5: el modelo chino que vuelve a sacudir la carrera de la IA
DeepSeek lanzó hoy V4-Pro y V4-Flash: 1.6 billones de parámetros, 1M de contexto, y precios que hacen ver ridículo a GPT-5.5 y Claude Opus 4.7. Lo que cambia para devs y startups en México.