La LEY OLIMPIA se queda SIN DIENTES en contenido de IA generativa: Expertos

La rápida evolución de la inteligencia artificial (IA) generativa ha superado la velocidad de respuesta del marco jurídico mexicano. Aunque la Ley Olimpia marcó un hito en 2018 para sancionar la violencia digital, hoy se enfrenta a una obsolescencia técnica que impide proteger a las víctimas de contenidos sintéticos, como los deepfakes.

  • Claudia Jiménez, presidenta del Consejo Latinoamericano de Ética en Tecnología (CLETec), advierte que la normativa actual carece de los mecanismos necesarios para castigar la creación de materiales falsos, audios, videos e imágenes, que vulneran la intimidad de las personas.

“La Ley Olimpia se queda sin dientes en contenido de IA generativa”, afirma Jiménez, destacando que el problema reside en que la ley fue concebida para castigar la difusión de contenido real sin consentimiento, pero no contempla la fabricación total de identidades digitales.

  • Según la especialista, al no mencionarse de manera “implícita y explícita que los videos son generados por inteligencia artificial”, se genera una laguna que los juzgadores no pueden sortear, dejando a las víctimas en la indefensión jurídica.
  • La presidenta del CLETec recuerda el caso de un estudiante del Instituto Politécnico Nacional (IPN), Diego “N”, que manipuló fotografías de sus compañeras para crear imágenes desnudas mediante IA. En este tipo de escenarios, el sistema de justicia colisiona con la falta de conceptos claros.

“Tenemos que empezar a hablar de qué entendemos por inteligencia artificial en la justicia. Pareciera que todos hablamos de IA y todos comprendemos su alcance, pero en realidad no es así”, puntualiza la también politóloga por la UNAM.

Uno de los mayores obstáculos para la regulación es determinar quién es el responsable legal: si el usuario que introduce el comando (prompt), el desarrollador de la herramienta o la plataforma que permite su distribución.

Jiménez recalca que México debe impulsar una regulación que establezca “mínimos de buen uso” sin caer en la sobrerregulación que inhiba la innovación, pero enfocada en proteger a grupos vulnerables. “En la inteligencia artificial se amplifica el daño porque estás hablando de entrenamientos masivos con millones de datos expuestos, sin que se sepa de dónde se han extraído”.

La deuda pendiente

A nivel legislativo, existen cerca de 86 iniciativas en el Congreso de la Unión que permanecen en la «congeladora».

Jiménez lamenta la falta de voluntad política para definir una estrategia nacional de IA que incluya la ciberseguridad, un tema que arrastra un rezago de 20 años. Para la experta, la opacidad de los algoritmos —conocida como «caja negra»— dificulta la rendición de cuentas. “Es muy difícil que la caja negra te diga el paso a paso que tomó ese algoritmo para llegar a cierta decisión, ahí falta explicabilidad y transparencia”.

  • El CLETec, que trabaja de la mano con certificadoras de Silicon Valley, busca fortalecer el ecosistema ético en América Latina mediante la alfabetización digital.

Jiménez sostiene que no se trata de implementar tecnología por implementar, sino de entender su impacto social y sanitario. “Hay mucha brecha todavía y hay gente que puede ser dañada en su uso en términos de derechos humanos”, subraya, haciendo énfasis en que el mal uso intencionado de la tecnología es un riesgo histórico que ahora alcanza niveles de difusión masiva.

Desinformación

La presidenta del CLETec advirtió sobre el peligro que representan los deepfakes en el contexto de los procesos democráticos. La capacidad de generar audios y videos falsos de candidatos puede erosionar la confianza ciudadana y manipular la opinión pública de manera irreversible. Al respecto, señala que las redes sociales suelen escudarse en la libertad de expresión, pero cuestiona: “¿Dónde está el límite de la libertad de expresión justamente por este tipo de videos?”.

“La inversión en los gobiernos pareciera que no importara tanto. El papel que puede jugar la IA en los procesos electorales es algo a tomar muy en cuenta”, agrega  Jiménez. Ante este panorama, el CLETec prepara el primer reporte diagnóstico sobre el uso de la IA en América Latina, buscando que las autoridades comprendan que, detrás de los «fierros» y el código, existen repercusiones humanas que requieren, con urgencia, un marco legal con dientes./Agencias-PUNTOporPUNTO

Recibe nuestro boletín informativo, suscríbete usando el formulario