tech

GitHub va a entrenar su IA con tu código por defecto desde el 24 de abril: cómo activar el opt-out hoy antes de que sea tarde

tech · 6 min de lectura

GitHub va a entrenar su IA con tu código por defecto desde el 24 de abril: cómo activar el opt-out hoy antes de que sea tarde

A partir del 24 de abril, GitHub usará tus prompts, sugerencias aceptadas y contexto de código para entrenar sus modelos de IA. Afecta a Copilot Free, Pro y Pro+. Aquí los pasos exactos para salirte antes de que empiece.

GitHub va a entrenar su IA con tu código por defecto desde el 24 de abril: cómo activar el opt-out hoy antes de que sea tarde

Si usas GitHub Copilot Free, Pro o Pro+ y no has tocado nada en tus configuraciones de privacidad, a partir del 24 de abril tu código va a empezar a alimentar los modelos de IA de GitHub. Sin aviso. Sin que nadie te pregunte. Por defecto activado.

El 25 de marzo, GitHub publicó en su blog oficial la actualización a su política de uso de datos de interacción con la que básicamente convirtió a sus usuarios individuales en fuente de entrenamiento. La reacción de la comunidad fue inmediata: 59 thumbs down contra apenas 3 reacciones positivas en el hilo oficial de la comunidad. Martin Woodward, VP de GitHub, fue el único que le dio like al anuncio. El resto del thread es puro descontento.

¿Y México? Somos uno de los países con mayor adopción de Copilot Free en LATAM. Si eres dev y lo usas en tus proyectos personales o freelance, esto te afecta directo.

Qué datos va a tomar exactamente

No es solo “tu código”. La lista completa según el anuncio oficial es:

  • Inputs y outputs de Copilot (lo que escribes y lo que te sugiere)
  • Fragmentos de código aceptados o modificados
  • Contexto del código: lo que está alrededor del cursor
  • Comentarios y documentación en tus archivos
  • Nombres de archivos y estructura del repositorio
  • Patrones de navegación
  • Chats con Copilot
  • Feedback que le das a las sugerencias (los thumbs up y thumbs down)

El punto que más escuece: según reportó The Register, GitHub confirmó en sus FAQ que “fragmentos de código de repositorios privados pueden ser recopilados y usados para entrenamiento de modelos” cuando tienes Copilot activo. O sea, si tienes un repo privado y estás trabajando con Copilot, esa sesión de trabajo ya cuenta.

Ahora, GitHub aclara que el código en reposo en repositorios privados (el que solo está guardado, sin interacción activa de Copilot) no se usa para entrenar. La diferencia es sutil pero importante: el problema es cuando estás activamente programando con el asistente abierto.

Quién está exento

Aquí viene lo bueno si trabajas en empresa: Copilot Business y Copilot Enterprise no están afectados. Los contratos corporativos tienen cláusulas diferentes y sus datos no entran en este programa. Tampoco afecta a estudiantes ni a maestros.

El problema es para los devs independientes, freelancers, y todos los que usan la cuenta personal. Si tienes Copilot Free (el que regala GitHub con 2,000 completaciones y 50 chats al mes), estás dentro del scope.

Y antes de que lo preguntes: GitHub dice que los datos pueden ser compartidos con sus afiliados, lo cual incluye a Microsoft. No los van a vender a terceros ni a otros proveedores de IA, pero sí quedan dentro del ecosistema Microsoft-GitHub.

Hablando de Microsoft y sus movidas con IA, no está de más mencionar que ya vimos cómo Microsoft integró el cerebro de Anthropic a su producto estrella y las implicaciones para el ecosistema hace unos días. El patrón es claro: las big tech quieren tus datos de interacción para mejorar sus modelos, y GitHub no es la excepción.

Los pasos para el opt-out (hazlo ahorita)

Esto es lo que viniste a buscar. Son 4 pasos y tardas menos de un minuto:

  1. Entra a tu cuenta de GitHub y ve directamente a: github.com/settings/copilot/features
  2. Baja hasta la sección de Privacy
  3. Busca la opción “Allow GitHub to use my data for AI model training”
  4. Cambia el dropdown a Disabled y guarda

Listo. A partir de ese momento, tu interacción ya no se recopila. GitHub confirma que la recolección se detiene desde que activas el opt-out, pero no es retroactivo: lo que ya se recopiló antes, ya se recopiló.

Un dato importante: si ya habías desactivado previamente la opción de “compartir datos para mejoras del producto” en configuraciones anteriores, tu preferencia se mantiene automáticamente. No tienes que hacer nada extra. Pero si nunca tocaste esa opción, estás en la lista por defecto.

Si tienes varias cuentas de GitHub, tienes que repetir el proceso en cada una. No hay forma de hacerlo en batch.

Por qué esto importa más allá del drama

La discusión de fondo no es solo privacidad. Es una pregunta más complicada: ¿cuándo aceptamos implícitamente que nuestro trabajo digital alimente sistemas que pueden competir con nosotros?

Esta situación no es aislada. Ya escribimos sobre la regulación de IA que ya está afectando a empresas en México y qué esperar antes de que llegue la ley mexicana. El problema es que la regulación va muy lento y mientras tanto, las empresas se mueven rápido.

GitHub justifica el cambio diciendo que cuando probaron con datos de empleados de Microsoft, vieron “mejoras significativas en tasas de aceptación en múltiples lenguajes de programación”. La lógica es simple: más datos de interacción real = modelo más chido. Y los que tienen que poner los datos son los usuarios Free y Pro.

Según gHacks, el anuncio tampoco aclara varios puntos clave: no hay detalles sobre métodos de anonimización, no queda claro si hay un umbral mínimo de interacciones para ser incluido, y no se especifica si las interacciones previas al anuncio ya están en el sistema.

Dicho esto, está re piola que al menos exista opt-out. Hay empresas que directamente no te dan esa opción.

¿Qué alternativas tienes si no quieres participar?

Si el opt-out no te convence y quieres salirte del ecosistema GitHub Copilot para tu trabajo personal, hay opciones:

  • Copilot Business te protege por contrato, pero cuesta $19 USD al mes y requiere organización
  • Continue.dev con modelos locales (Ollama + Qwen2.5-Coder o CodeLlama): corre en tu máquina, cero datos a terceros
  • Codeium Free: tiene una política más conservadora sobre uso de datos
  • Cursor con modelos locales: más complejo de configurar, pero control total

Si solo programas proyectos personales sin código sensible, el opt-out en Copilot Free probablemente es suficiente. Si manejas código de clientes o proyectos con información confidencial, vale la pena revisar si un modelo local te funciona.

La fecha límite es el 24 de abril. Tienes casi un mes. No lo dejes para después porque en este tipo de cosas “después” normalmente significa “ya se activó y no te diste cuenta”.

¿Ya activaste el opt-out? ¿O ya tenías la configuración desactivada desde antes? Cuéntanos abajo.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar