La Inteligencia Artificial (IA) está siendo empleada de manera negativa por algunas personas, quienes están generando desnudos de mujeres utilizando como base las imágenes comunes que las chicas comparten en sus redes sociales.
Sin el consentimiento de las afectadas, delincuentes cibernéticos producen los llamados deepfakes pornográficos, un tipo de contenido para adultos que se caracteriza por ser completamente falso. A través de esta tecnología, cualquier persona que tenga fotos en internet se encuentra en riesgo.
Cada vez son más las voces que claman por una regulación de esta nueva tecnología de IA, ya que personas sin escrúpulos están aprovechándose de la falta de restricciones en este ámbito, lo que provoca abusos en contra de diversas personas.
Un caso que ha ganado notoriedad recientemente es el de la usuaria de TikTok @Rache.lzh5, quien publicó un video en el que denuncia que usaron sus fotos, en las que aparece vestida, para transformarlas en imágenes falsas donde se presenta desnuda, y sin su consentimiento. Con lágrimas en los ojos, Rachel expresó su frustración por lo ocurrido.
https://www.tiktok.com/@rache.lzh5/video/7226734280544734507
Eran fotos mías que yo había publicado completamente vestida, las cuales usaron un editor con IA para editarme desnuda. Es muy extraño, pero más extraño es que me las enviaran, y lo que es aún peor es que al día siguiente, al despertar, ya tenía decenas de mensajes con estas imágenes, pero sin la marca de agua. Las distribuyeron como si fueran auténticas.
Además, en Estados Unidos se reveló que el youtuber y creador de contenido Atrioc accedió a un sitio especializado en deepfakes pornográficos de streamers famosas. Finalmente, se disculpó por su acción, argumentando que lo hizo por curiosidad, y anunció que se tomaría un tiempo alejado de internet.
En México está vigente la Ley Olimpia, que prohíbe este tipo de acciones, pues aunque se trate de imágenes falsas, el daño que ocasionan es enorme. La angustia, frustración y dolor que sienten las víctimas es absolutamente tangible.