GitHub va a entrenar su IA con tu código por defecto desde el 24 de abril: cómo activar el opt-out hoy antes de que sea tarde
A partir del 24 de abril, GitHub usará tus prompts, sugerencias aceptadas y contexto de código para entrenar sus modelos de IA. Afecta a Copilot Free, Pro y Pro+. Aquí los pasos exactos para salirte antes de que empiece.
Si usas GitHub Copilot Free, Pro o Pro+ y no has tocado nada en tus configuraciones de privacidad, a partir del 24 de abril tu código va a empezar a alimentar los modelos de IA de GitHub. Sin aviso. Sin que nadie te pregunte. Por defecto activado.
El 25 de marzo, GitHub publicó en su blog oficial la actualización a su política de uso de datos de interacción con la que básicamente convirtió a sus usuarios individuales en fuente de entrenamiento. La reacción de la comunidad fue inmediata: 59 thumbs down contra apenas 3 reacciones positivas en el hilo oficial de la comunidad. Martin Woodward, VP de GitHub, fue el único que le dio like al anuncio. El resto del thread es puro descontento.
¿Y México? Somos uno de los países con mayor adopción de Copilot Free en LATAM. Si eres dev y lo usas en tus proyectos personales o freelance, esto te afecta directo.
Qué datos va a tomar exactamente
No es solo “tu código”. La lista completa según el anuncio oficial es:
- Inputs y outputs de Copilot (lo que escribes y lo que te sugiere)
- Fragmentos de código aceptados o modificados
- Contexto del código: lo que está alrededor del cursor
- Comentarios y documentación en tus archivos
- Nombres de archivos y estructura del repositorio
- Patrones de navegación
- Chats con Copilot
- Feedback que le das a las sugerencias (los thumbs up y thumbs down)
El punto que más escuece: según reportó The Register, GitHub confirmó en sus FAQ que “fragmentos de código de repositorios privados pueden ser recopilados y usados para entrenamiento de modelos” cuando tienes Copilot activo. O sea, si tienes un repo privado y estás trabajando con Copilot, esa sesión de trabajo ya cuenta.
Ahora, GitHub aclara que el código en reposo en repositorios privados (el que solo está guardado, sin interacción activa de Copilot) no se usa para entrenar. La diferencia es sutil pero importante: el problema es cuando estás activamente programando con el asistente abierto.
Quién está exento
Aquí viene lo bueno si trabajas en empresa: Copilot Business y Copilot Enterprise no están afectados. Los contratos corporativos tienen cláusulas diferentes y sus datos no entran en este programa. Tampoco afecta a estudiantes ni a maestros.
El problema es para los devs independientes, freelancers, y todos los que usan la cuenta personal. Si tienes Copilot Free (el que regala GitHub con 2,000 completaciones y 50 chats al mes), estás dentro del scope.
Y antes de que lo preguntes: GitHub dice que los datos pueden ser compartidos con sus afiliados, lo cual incluye a Microsoft. No los van a vender a terceros ni a otros proveedores de IA, pero sí quedan dentro del ecosistema Microsoft-GitHub.
Hablando de Microsoft y sus movidas con IA, no está de más mencionar que ya vimos cómo Microsoft integró el cerebro de Anthropic a su producto estrella y las implicaciones para el ecosistema hace unos días. El patrón es claro: las big tech quieren tus datos de interacción para mejorar sus modelos, y GitHub no es la excepción.
Los pasos para el opt-out (hazlo ahorita)
Esto es lo que viniste a buscar. Son 4 pasos y tardas menos de un minuto:
- Entra a tu cuenta de GitHub y ve directamente a: github.com/settings/copilot/features
- Baja hasta la sección de Privacy
- Busca la opción “Allow GitHub to use my data for AI model training”
- Cambia el dropdown a Disabled y guarda
Listo. A partir de ese momento, tu interacción ya no se recopila. GitHub confirma que la recolección se detiene desde que activas el opt-out, pero no es retroactivo: lo que ya se recopiló antes, ya se recopiló.
Un dato importante: si ya habías desactivado previamente la opción de “compartir datos para mejoras del producto” en configuraciones anteriores, tu preferencia se mantiene automáticamente. No tienes que hacer nada extra. Pero si nunca tocaste esa opción, estás en la lista por defecto.
Si tienes varias cuentas de GitHub, tienes que repetir el proceso en cada una. No hay forma de hacerlo en batch.
Por qué esto importa más allá del drama
La discusión de fondo no es solo privacidad. Es una pregunta más complicada: ¿cuándo aceptamos implícitamente que nuestro trabajo digital alimente sistemas que pueden competir con nosotros?
Esta situación no es aislada. Ya escribimos sobre la regulación de IA que ya está afectando a empresas en México y qué esperar antes de que llegue la ley mexicana. El problema es que la regulación va muy lento y mientras tanto, las empresas se mueven rápido.
GitHub justifica el cambio diciendo que cuando probaron con datos de empleados de Microsoft, vieron “mejoras significativas en tasas de aceptación en múltiples lenguajes de programación”. La lógica es simple: más datos de interacción real = modelo más chido. Y los que tienen que poner los datos son los usuarios Free y Pro.
Según gHacks, el anuncio tampoco aclara varios puntos clave: no hay detalles sobre métodos de anonimización, no queda claro si hay un umbral mínimo de interacciones para ser incluido, y no se especifica si las interacciones previas al anuncio ya están en el sistema.
Dicho esto, está re piola que al menos exista opt-out. Hay empresas que directamente no te dan esa opción.
¿Qué alternativas tienes si no quieres participar?
Si el opt-out no te convence y quieres salirte del ecosistema GitHub Copilot para tu trabajo personal, hay opciones:
- Copilot Business te protege por contrato, pero cuesta $19 USD al mes y requiere organización
- Continue.dev con modelos locales (Ollama + Qwen2.5-Coder o CodeLlama): corre en tu máquina, cero datos a terceros
- Codeium Free: tiene una política más conservadora sobre uso de datos
- Cursor con modelos locales: más complejo de configurar, pero control total
Si solo programas proyectos personales sin código sensible, el opt-out en Copilot Free probablemente es suficiente. Si manejas código de clientes o proyectos con información confidencial, vale la pena revisar si un modelo local te funciona.
La fecha límite es el 24 de abril. Tienes casi un mes. No lo dejes para después porque en este tipo de cosas “después” normalmente significa “ya se activó y no te diste cuenta”.
¿Ya activaste el opt-out? ¿O ya tenías la configuración desactivada desde antes? Cuéntanos abajo.
Fuentes
- GitHub Blog: Updates to GitHub Copilot interaction data usage policy
- The Register: GitHub, We going to train on your data after all
- gHacks Tech News: GitHub Enables Copilot Data Collection For AI Training By Default With Opt-Out Setting
- GitHub Community Discussion FAQ: Privacy Statement update on Copilot data use
- GitHub Changelog: Updates to our Privacy Statement and Terms of Service
- TechSpot: GitHub Copilot will use your data for AI training by default, but you can opt out
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
Apple Intelligence se encendió sola en China sin permiso: lo que eso revela sobre cuándo llega completa a México
El 30 de marzo, Apple Intelligence se activó accidentalmente en China antes de tener aprobación regulatoria. La historia detrás de ese error explica por qué en México todavía faltan funciones clave.
Microsoft admite que Windows Recall fracasó y recorta Copilot en Windows 11: qué pasa si ya compraste una AI PC en México
Microsoft reconoce que Windows 11 se fue por las ramas con la IA y ahora está recortando Copilot y replanteando Recall. Si compraste una Copilot+ PC en México prometiéndote esas features, esto es lo que necesitas saber.
Se filtró el código fuente completo de Claude Code: 512,000 líneas expuestas por un error de empaquetado en npm
Anthropic publicó accidentalmente 512,000 líneas de TypeScript de Claude Code en npm versión 2.1.88. Se revelaron nombres internos de modelos, un 'modo encubierto' polémico y un sistema Tamagotchi para la IA.