#QuitGPT: 2.5 millones le dijeron no a ChatGPT después del trato con el Pentágono (y tus datos mexicanos también están en juego)
OpenAI firmó con el Departamento de Guerra de EE.UU. para meter su IA en redes clasificadas. El resultado: 295% más desinstalaciones, 2.5 millones en el movimiento #QuitGPT y preguntas muy incómodas sobre qué pasa con tus conversaciones.
El 27 de febrero de 2026 (por la noche), OpenAI anunció que había firmado con el Departamento de Guerra de Estados Unidos para desplegar sus modelos en redes militares clasificadas. Ese mismo día, las desinstalaciones de ChatGPT en EE.UU. subieron 295% respecto al día anterior. Las reseñas de 1 estrella en la App Store explotaron +775%. Según reportes, las reseñas de 5 estrellas disminuyeron significativamente.
Y así nació #QuitGPT.
Qué fue lo que firmó OpenAI (y por qué importa)
El trato: OpenAI acordó desplegar sus modelos en las redes clasificadas del Departamento de Guerra (sí, así se llama ahora el Pentágono bajo la administración Trump) para “cualquier propósito legal”. Sin restricciones explícitas en el contrato original. Sin límites sobre armas autónomas. Sin nada que impidiera su uso en sistemas de vigilancia.
Lo que lo hace más picante es el timing. Horas antes del anuncio de OpenAI, Dario Amodei, CEO de Anthropic, rechazó públicamente el mismo contrato, diciendo que “en ciertos casos, la IA puede socavar en lugar de defender los valores democráticos”. El resultado: Anthropic perdió un contrato de $200 millones de dólares. Y OpenAI lo levantó del suelo sin pensarlo dos veces.
Como ya documentamos en nuestro análisis de Anthropic vs. el Pentágono, la postura de Anthropic tenía una lógica clara: hay líneas que no se cruzan aunque te cuesten dinero. OpenAI decidió que no era su problema.
Los números del drama
El movimiento #QuitGPT reunió más de 2.5 millones de apoyos en cuestión de días, con gente cancelando suscripciones, publicando evidencia de sus cancelaciones en redes y firmando peticiones. Manifestantes se plantaron frente a las oficinas de OpenAI en San Francisco el 3 de marzo.
El efecto mercado fue inmediato: Claude, de Anthropic, superó a ChatGPT en el ranking de la App Store de EE.UU. por primera vez en la historia. En seis países fuera de EE.UU., Claude también se coronó como la app más descargada.
98 empleados de OpenAI firmaron una carta interna de protesta. 796 empleados de Google se sumaron en solidaridad. Y Caitlin Kalinowski, la directora de robótica de OpenAI, renunció con una declaración que no dejó dudas: “La vigilancia de ciudadanos sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron.”
Sam Altman, después de todo esto, admitió ante CNBC que el acuerdo “parecía oportunista y descuidado”. No exactamente la respuesta que te esperarías de alguien que dice estar construyendo IA segura para la humanidad.
¿OpenAI violó sus propios principios?
Aquí está lo interesante: OpenAI tenía establecidas públicamente tres “líneas rojas” que no cruzaría:
- No vigilancia masiva doméstica
- No sistemas de armas autónomas
- No decisiones automatizadas de alto riesgo (tipo puntuación social)
El contrato original no cumplía ninguna de esas tres. Después del escándalo, OpenAI renegotió los términos para añadir lenguaje que prohíbe explícitamente “la vigilancia de personas en EE.UU.” y excluye a la NSA y otras agencias de inteligencia del acceso a sus servicios sin modificaciones contractuales separadas.
¿Resuelve eso el problema? La Electronic Frontier Foundation dice que no. Según la EFF, el contrato está lleno de lenguaje ambiguo que el gobierno históricamente ha interpretado a su favor:
- “Intencional” vs. “incidental”: las agencias siempre dicen que la vigilancia masiva ocurre “incidentalmente” cuando recopilan comunicaciones extranjeras, evitando así los requisitos de intención.
- “Seguimiento deliberado”: las agencias de inteligencia routinamente usan datos comprados a terceros para evitar las protecciones legales más estrictas.
- “Monitoreo sin restricciones”: nadie ha definido qué significa eso exactamente ni quién lo determina.
La moraleja: OpenAI firmó primero, parchó después, y confió en que nadie leyera la letra chica.
Lo que esto significa si eres usuario mexicano
Aquí está la pregunta que pocos están haciendo en la cobertura en inglés: ¿qué pasa con los millones de usuarios en México y LATAM que tienen meses o años de conversaciones guardadas en ChatGPT?
La neta es que tus datos están en servidores de EE.UU. México no tiene un equivalente al GDPR europeo con dientes reales para protegerte. Y la política de OpenAI para solicitudes gubernamentales establece que entregará datos de usuarios “conforme a procesos legales válidos” o si hay “creencia de buena fe en una emergencia”.
¿Qué guarda ChatGPT de ti? Todo lo que le has escrito. Tu historial completo de conversaciones: prompts, respuestas, contexto. Número de cuenta, correo, información de pago. Y por defecto, tus conversaciones se usaban para entrenar modelos a menos que lo desactivaras activamente.
Eso significa que si le preguntaste a ChatGPT cómo hacer algo delicado, le pediste ayuda con algo personal, o le diste contexto sobre tu trabajo o negocio, esa información existe en algún servidor de OpenAI. Y OpenAI acaba de firmar con el aparato militar del gobierno más poderoso del mundo.
No estamos diciendo que el Pentágono ya esté revisando tus chats sobre cómo hacer tamales. Pero la pregunta de “¿podría hacerlo?” ahora tiene una respuesta diferente que hace tres meses.
Qué puedes hacer hoy
Si te preocupa esto y quieres tomar cartas en el asunto:
Deshabilita el entrenamiento con tus datos: En ChatGPT, ve a Configuración > Controles de Datos > desactiva “Mejorar el modelo para todos”. Tus conversaciones seguirán en el historial pero no se usarán para entrenar modelos.
Borra tu historial: En la misma sección puedes eliminar tu historial de conversaciones. Hazlo si hay cosas que no quieres que existan en ningún servidor.
Cancela y borra tu cuenta: Si quieres salir completamente, ve a Configuración > Cuenta > Eliminar cuenta. OpenAI tiene una guía en su centro de ayuda para hacerlo limpiamente.
Considera alternativas: Claude es la opción más directa dado que fue la empresa que rechazó el contrato militar. Gemini y otros modelos locales también son viables. Si quieres cero dependencia de servidores externos, hay opciones open-source que ya explicamos a detalle en esta guía para correr IA local en tu máquina sin pagar un peso.
Las alternativas reales
El movimiento QuitGPT recomienda moverse a Claude o Gemini como alternativas principales, y desaconseja explícitamente Grok (siendo de Elon Musk y todo eso). Las opciones open-source mencionadas incluyen Confer, Alpine y Lumo, aunque ninguna tiene el mismo nivel de capacidad que los grandes modelos en este momento.
Si lo tuyo es comparar cuál conviene según tu caso de uso, ya hicimos eso: la comparativa completa de ChatGPT vs Claude vs Gemini vs Grok vs DeepSeek con precios en pesos sigue siendo válida. Claude en particular tiene Free y Pro ($20 USD/mes), y en el contexto de este escándalo, la postura pública de Anthropic sobre no trabajar con el aparato militar le da puntos extra de confianza.
La pregunta que OpenAI no ha respondido
Lo que nadie ha preguntado directamente es qué pasa con usuarios fuera de EE.UU. El contrato enmendado prohíbe la vigilancia de “personas en EE.UU.”. No dice nada sobre los otros 180+ países donde ChatGPT tiene usuarios activos. ¿Los mexicanos, los colombianos, los argentinos estamos en la misma protección? La respuesta implícita es: no necesariamente.
El movimiento #QuitGPT empezó como una queja de usuarios progresistas de Silicon Valley, pero la pregunta de fondo es válida para todos: cuando le das tu historial de conversaciones a una empresa privada estadounidense y esa empresa firma con el aparato de defensa de EE.UU., ¿cuánto control real tienes sobre tu información?
La respuesta es incómoda. Y Altman ya admitió que todo el proceso fue “descuidado”. Eso no te regresa los datos que ya entregaste, pero sí te dice algo sobre cómo toman estas decisiones.
Fuentes
- Euronews: Cancel ChatGPT boycott surges after Pentagon military deal
- CNBC: Sam Altman admits Pentagon deal was “opportunistic and sloppy”
- NBC News: OpenAI alters deal with Pentagon as critics sound alarm over surveillance
- EFF: Weasel Words: OpenAI’s Pentagon Deal Won’t Stop AI-Powered Surveillance
- Infobae: Se disparan las desinstalaciones de ChatGPT luego del acuerdo con el Pentágono
- Sovereign Magazine: OpenAI forced to rewrite Pentagon deal as 2.5 million users join boycott
- OpenAI: Our agreement with the Department of War
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
OpenAI quiere 8,000 empleados para 2026: están contratando 12 personas al día y aquí te explico qué buscan en LATAM
OpenAI va a casi duplicar su plantilla de 4,500 a 8,000 empleados antes de que acabe 2026. Te explico qué roles buscan, qué es un 'embajador técnico' y si hay oportunidad para quienes hablan español.
GPT-5.4 lleva un mes aquí y pocas empresas en México lo están usando bien: 5 casos reales que sí funcionan
GPT-5.4 llegó el 5 de marzo con computer use nativo, contexto de 1M tokens y 83% en GDPval. Aquí están los 5 casos de uso más concretos para empresas y emprendedores mexicanos, con precios reales.
Q1 2026: OpenAI levantó más plata en un trimestre que todo LATAM en un año. ¿Y México qué?
Q1 2026 rompió todos los récords: $239 mil millones fluyeron hacia IA en un solo trimestre. México tiene patentes pero no capital. Aquí te explico la brecha y los caminos reales para acercarse al dinero.