La regulación de IA que ya afecta a empresas en México: leyes estatales de EUA, la demanda del siglo y qué hacer antes de que llegue la ley mexicana
Mientras EUA aprueba leyes estatales de IA y la demanda contra Eightfold AI sacude al sector de RRHH, las empresas mexicanas con operaciones en el norte ya están en la mira. Todo lo que necesitas saber.
Hay mucho ruido en redes sobre una supuesta ley federal de IA firmada en EUA que obligaría a todas las empresas a auditar sus algoritmos. La neta: esa ley federal todavía no existe. Pero lo que SÍ existe ya está generando dolores de cabeza reales para cualquier empresa que use IA en contratación, crédito o servicios digitales, y México no está exento.
Aquí te explico qué está pasando de verdad, qué leyes ya entraron en vigor, y por qué si tu empresa usa IA para contratar gente o dar créditos, ya deberías estar moviendo fichas.
El mito del “AI Accountability Act federal” y la realidad que importa
Los titulares en inglés han estado corriendo la historia de que EUA firmó una ley federal de rendición de cuentas para IA. Hay varios proyectos avanzando en el Congreso (el H.R.5511 Algorithmic Accountability Act, el S.2367, entre otros), pero ninguno ha sido promulgado. El gobierno de Trump tiene además una ejecutiva de diciembre 2025 que activamente quiere frenar regulación estatal sobre IA, lo que complica más el panorama.
Pero aquí está el punto que nadie está subrayando bien: la acción real ya sucedió a nivel estatal, y entró en vigor el 1 de enero de 2026.
- Texas RAIGA (Responsible Artificial Intelligence Governance Act): Prohíbe explícitamente el uso de IA de manera discriminatoria contra grupos protegidos. Aplica a cualquier empresa que opere en Texas, sin importar dónde tenga sus oficinas centrales.
- California AB 2013: Obliga a los desarrolladores de IA generativa a publicar la procedencia de sus datos de entrenamiento.
- California AB 325: Prohíbe el uso de algoritmos de precios compartidos entre competidores, con implicaciones directas para el fintech.
Y si eso no fuera suficiente, en enero de 2026 cayó una demanda histórica contra Eightfold AI bajo la Fair Credit Reporting Act (FCRA): el argumento es que las plataformas de reclutamiento con IA están generando “expedientes crediticios ocultos” de los candidatos sin las divulgaciones legales requeridas. Si eso prospera en corte, va a cambiar el juego para toda la industria de HR tech.
La regla del 80/20 que ya te puede tronar
Aunque no haya una ley federal explícita, los abogados laborales en EUA ya están advirtiendo sobre algo llamado la regla del 80/20: si tu sistema de IA selecciona candidatos de un grupo protegido (mujeres, minorías étnicas, personas con discapacidad) a una tasa menor al 80% de la tasa del grupo más favorecido, eso se considera evidencia de impacto disparatado. Y la defensa de “no fue intencional” no funciona: la responsabilidad civil existe aunque el sesgo haya sido accidental.
O sea, si tu algoritmo de RH contrata 10 hombres por cada 7 mujeres calificadas equivalentes, ya tienes un problema legal, aunque nunca hayas querido discriminar. Eso, como dicen en Argentina, es re complicado.
¿Y BBVA, Rappi y Amazon México?
La cuestión es que todas estas empresas operan en EUA de alguna forma, y ahí está la exposición inmediata.
BBVA ya lleva tiempo trabajando en su proyecto interno “Fair Learning”, que busca corregir sesgos en sus modelos de decisión automatizada para créditos y contratación. No es casualidad: llevan años viendo venir esta regulación. Cualquier banco digital o fintech mexicano que use scoring algorítmico para decidir si te da un préstamo ya debería estar haciendo auditorías similares.
Rappi y las plataformas gig tienen otro ángulo: sus algoritmos de asignación de trabajo y evaluación de repartidores entran en la categoría de “decisiones laborales automatizadas” que Texas RAIGA ya está vigilando.
Amazon México opera en EUA con herramientas de selección de personal, y ya en 2018 tuvo que cancelar su primer sistema de IA de reclutamiento porque discriminaba mujeres. En 2026 ese error les costaría litigios, no solo vergüenza pública.
Y las startups mexicanas de HR tech y fintech que exportan servicios a EUA (Kueski, Konfío, Clara, Worky, entre otras) están en el radar si operan o sirven clientes en estados como Texas o California.
México va detrás, pero viene acelerando
Mientras tanto, en México no hay ley de IA aprobada todavía. Pero hay dos propuestas concretas que están avanzando:
- Ley Federal de IA (propuesta abril 2024): Modelada en el EU AI Act. Clasifica sistemas por riesgo (inaceptable, alto, bajo) y propone al IFT como autoridad competente. Requiere transparencia algorítmica.
- Ley de Desarrollo Ético, Soberano e Inclusivo de la IA (propuesta abril 2025): Crea un Consejo Nacional de IA y una Plataforma Nacional de Auditoría Algorítmica (PNAA), que básicamente sería el órgano que audite si tus algoritmos discriminan o no.
Según el análisis regulatorio de Garrigues, México se perfila como “adoptante avanzado” en LATAM, pero enfrenta escasez de talento regulatorio y una incertidumbre que ya está costando oportunidades de inversión. La pregunta no es si va a haber ley, sino cuándo.
Si te interesa el contexto más amplio de cómo la IA está transformando el mundo laboral y tecnológico en México, vale la pena leer cómo correr tu propia IA local en 2026: entender qué hay detrás de estos modelos ayuda a saber por qué el sesgo es tan difícil de eliminar.
Qué hacer si tu empresa ya usa IA en RRHH o crédito
No tienes que esperar a que llegue la ley mexicana para actuar. Estas son las cosas concretas que ya debería estar haciendo cualquier empresa mediana o startup tech en México que use IA para decisiones de personal o finanzas:
1. Auditoría de impacto disparatado: Corre tus datos históricos de contratación o aprobación de crédito contra la regla del 80/20. Si hay discrepancias por género, edad o perfil socioeconómico, mejor saberlo tú antes que un demandante.
2. Due diligence a tus proveedores de HR tech: Si usas una plataforma de terceros (ATS, scoring de candidatos, entrevistas con IA), pregunta explícitamente si tienen auditorías de sesgo. No basta que te digan “somos justos”.
3. Documentación: Si mañana llega una auditoría o demanda, necesitas poder demostrar que monitoreaste el sistema, que tomaste acciones correctivas, y que hubo supervisión humana en decisiones críticas.
4. Cláusulas contractuales: Si exportas software de RH o fintech a EUA, revisa con tus abogados si tus contratos incluyen protección ante el FCRA y las leyes estatales vigentes. Las startups mexicanas tienden a ignorar esto hasta que es tarde.
Como vimos con el caso de Krafton usando ChatGPT para decisiones corporativas que salieron mal, confiar ciegamente en la IA sin supervisión tiene consecuencias muy concretas y muy caras.
El panorama de los próximos 12 meses
Lo más probable en 2026:
- La demanda contra Eightfold AI va a crear precedente jurídico que va a replantear cómo funciona legalmente toda la industria de HR tech en EUA.
- Al menos uno de los proyectos de ley federales (H.R.5511 o S.2367) va a avanzar significativamente, aunque no se apruebe antes de las elecciones de midterms.
- México va a seguir en modo “propuesta” durante 2026, pero la presión de multinacionales que ya tienen que cumplir en EUA va a acelerar la adopción de estándares internos equivalentes.
La moraleja es simple: no esperes a que te obliguen. Las empresas que ya están haciendo auditorías de sesgo van a tener ventaja competitiva cuando llegue la ley, y las que no lo estén haciendo van a correr cuando llegue el primer litigio.
¿Tu empresa ya está haciendo algo al respecto? ¿Conoces algún caso concreto de bias en herramientas de IA que se usen en México? Suéltalo en los comentarios.
Fuentes
- H.R.5511 : Algorithmic Accountability Act of 2025 (Congress.gov)
- Demanda contra Eightfold AI bajo FCRA : BizTech Weekly
- Por qué importa el sesgo en IA en 2026 : Fisher Phillips
- Leyes estatales de IA vigentes desde enero 2026 : King & Spalding
- Mapa regulatorio de IA en México : Garrigues
- Regular la IA en México : México Social
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
El Pentágono apeló la sentencia que protegía a Anthropic: qué pasa con Claude en México si Trump gana este round
El DOJ fue al Noveno Circuito el 2 de abril para revertir la protección judicial de Anthropic. Si la apelación prospera, la empresa detrás de Claude quedaría como 'supply chain risk' confirmado. Esto es lo que eso significa para empresas mexicanas con API activa.
OpenAI está corriendo contra el reloj: GPT-5.5 'Spud' terminó su entrenamiento y quiere llegar antes que Claude Mythos
OpenAI completó el preentrenamiento de GPT-5.5 (Spud) y Sam Altman dice que sale 'en semanas'. La carrera contra Claude Mythos de Anthropic ya empezó, y para los devs mexicanos el momento de elegir bando se acerca.
Gemini 3 Deep Think: el modelo de razonamiento de Google que saca 100% en olimpiadas de matemáticas (y cuesta casi 5 mil pesos al mes en México)
Google activó Gemini 3 Deep Think para suscriptores Ultra en México: el modelo de razonamiento que saca 100% en el AIME y compite directo con GPT-5.4 Thinking. Benchmarks reales, precios en pesos y cuándo te conviene.