noticias

Usó deepfakes de Sheinbaum y AMLO para promover su ley anti-deepfakes: la ironía política del año en México

noticias · 7 min de lectura

Usó deepfakes de Sheinbaum y AMLO para promover su ley anti-deepfakes: la ironía política del año en México

Un diputado del PAN fabricó deepfakes de figuras políticas para presentar su iniciativa que penaliza exactamente eso. Aquí el análisis de lo que implica para la regulación de IA en México.

Usó deepfakes de Sheinbaum y AMLO para promover su ley anti-deepfakes: la ironía política del año en México

El 18 de abril, un diputado del PAN subió un video a redes que ya es el meme político de la temporada: ahí está Alan Sahir Márquez Becerra, sentado en su escritorio, explicando por qué México necesita una ley contra la suplantación de identidad con IA… mientras usa deepfakes de Claudia Sheinbaum, Vicente Fox y Enrique Peña Nieto para ilustrar su punto. Sí, leíste bien. Usó la herramienta que quiere prohibir, para pedir que se prohíba esa herramienta.

No mames.

El video que nadie esperaba

Márquez Becerra, diputado federal por Guanajuato, presentó ante la Cámara de Diputados una iniciativa de reforma constitucional para penalizar el robo de identidad mediante inteligencia artificial. Para promoverla en redes, produjo un video donde él mismo “se transforma” en deepfakes de cuatro figuras políticas mexicanas: todas con la misma ropa y escenario que el diputado, para hacer el punto más contundente.

El mensaje central del video: “La inteligencia artificial no es el problema. El problema es cuando alguien la usa para hacerse pasar por ti sin tu autorización. Y para entonces ya es demasiado tarde.”

La ejecución técnica del video es bastante convincente para lo que suele verse en el Congreso mexicano. Las versiones deepfake de Sheinbaum, Fox y Peña Nieto mantienen coherencia de iluminación y movimiento. No es deepfake de Hollywood, pero sí está varios niveles arriba del meme de Facebook de tu tío.

Infobae México cubrió el caso el mismo 18 de abril y el video explotó en redes casi de inmediato, generando exactamente el debate que el diputado buscaba, aunque no necesariamente de la forma que esperaba.

Qué propone la iniciativa

La propuesta de Márquez Becerra busca reformar el Código Penal Federal para crear un nuevo capítulo específico sobre “robo de identidad”. Los puntos concretos:

  • Penas de 4 a 10 años de prisión para quien obtenga, posea, use, manipule o transfiera datos personales, imágenes, videos o audios identificativos de otra persona mediante IA o tecnologías digitales, sin consentimiento
  • Multas de hasta 1,000 días de salario como sanción económica adicional
  • Se crea un nuevo artículo 11 Bis en el Código Penal, con un capítulo completo dedicado al robo de identidad digital
  • Como complemento: una iniciativa para que niños aprendan uso ético y responsable de IA en la escuela

La iniciativa tiene sentido en papel. México actualmente no cuenta con legislación específica de ciberseguridad, y de las 3,205 investigaciones por violencia digital registradas entre 2020 y 2025, solo 5 condenatorias se emitieron (aproximadamente 0.16%). El 84% del abuso de imágenes íntimas generadas con IA afecta a mujeres y niñas. Hay un vacío legal real que llenar.

Aquí está el meollo del asunto que todo el mundo está evitando en los titulares. Si la iniciativa de Márquez Becerra se aprueba, ¿habría cometido él mismo exactamente lo que propone penalizar?

La respuesta legal, por el momento, es: complicado.

En México, el derecho a la imagen protege a cada persona contra el uso de su imagen sin consentimiento, especialmente con fines de lucro o difusión. Sin embargo, existe una zona gris para figuras públicas en contextos políticos, educativos o de interés general. La Ley Olimpia cubre violencia digital íntima, no suplantación política.

Lo que el diputado hizo cae en territorio de parodia política o ilustración de un punto legislativo. No intentó engañar a nadie de que Sheinbaum realmente apareció en su video: todo el contexto dejaba claro que era una demostración. Pero esa misma ambigüedad es exactamente el problema central del debate de regulación de IA.

Como mencionamos en nuestro análisis de lo que implica que Google quiera acceder a tu información personal, el consentimiento y el uso de datos son el núcleo del debate de privacidad con IA. Con deepfakes políticos, la línea entre sátira legítima y suplantación dañina puede ser cuestión de interpretación, y eso es justo lo que hace complicado legislar.

El debate más grande: México y su primera ley de IA

El video del diputado cayó en el contexto de una conversación legislativa mucho más amplia. El Senado tiene su propia iniciativa sobre inteligencia artificial que llegó a comisiones a finales de abril.

Expansión reportó que la iniciativa del Senado tiene riesgos de censura por el uso de términos vagos como “manipulación de la narrativa” o “riesgos informativos” que, sin definiciones precisas, pueden prestarse a interpretaciones amplias por parte de la autoridad. El experto en seguridad Víctor Ruiz advirtió que esto podría “generar un efecto inhibidor en medios, creadores y usuarios, especialmente en contextos políticamente sensibles.”

Dicho en castellano llano: una ley mal escrita contra deepfakes podría terminar siendo usada para silenciar a periodistas, críticos del gobierno o creadores de contenido político. Eso no es un escenario hipotético, es lo que ha pasado en otros países con legislación de contenido digital ambigua.

La propuesta del Senado es más ambiciosa en estructura: incluiría una autoridad nacional de supervisión de IA, registro obligatorio de sistemas de alto riesgo, certificaciones y financiamiento público. Pero Infobae documentó que expertos señalan la brecha entre lo que dicta la ley y la capacidad institucional real. En palabras de Ruiz: “la brecha entre lo que dicta la ley y lo que ocurre en las instituciones suele traducirse en simulación regulatoria.”

El problema no es la intención. Es que México no tiene todavía la infraestructura institucional para hacer cumplir estas leyes. La mayoría de los desarrolladores de IA operan fuera de la jurisdicción mexicana. Y los casos de violencia digital existentes ya muestran una tasa de condena del 0.5%.

¿Y en la práctica esto cambia algo?

Aquí hay que ser honestos: una ley nueva sin dientes de aplicación real no va a detener el deepfake de alguien que quiera estafar a tu abuela haciéndose pasar por ti. Tampoco va a frenar las campañas de desinformación con IA en las próximas elecciones.

Lo que sí puede hacer es establecer un marco legal que permita perseguir casos concretos de daño real, especialmente los de violencia sexual digital y extorsión, que son los usos más dañinos de la tecnología deepfake en contextos cotidianos.

El caso del diputado Márquez Becerra es interesante precisamente porque pone sobre la mesa la tensión que cualquier legislación de IA tiene que resolver: la misma herramienta que puede usarse para perjudicar a alguien también puede usarse para informar, satirizar o concienciar. La diferencia está en el contexto, el consentimiento y la intención. Y legislar eso con precisión es, la neta, re piola complicado.

Para el debate de regulación de IA en México, el video del diputado panista terminó siendo más útil que muchas presentaciones técnicas en el Congreso: demostró en segundos exactamente qué puede hacer la tecnología y por qué el vacío legal importa. Aunque la ironía sigue siendo difícil de ignorar.

¿Crees que la iniciativa de Márquez Becerra tiene los dientes suficientes para funcionar, o va a terminar siendo otra ley de adorno? ¿Y qué opinas del uso que hizo de deepfakes para promoverla? Cuéntanos en los comentarios.


Si te interesa el ángulo ético de las decisiones que las empresas de IA toman sobre el uso de su tecnología, lee cómo Anthropic le dijo no al Pentágono cuando les pidieron sistemas de armas autónomas, que es uno de los casos más reveladores del año sobre dónde están los límites reales de la industria.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar