Una vez obtenidas las imágenes de las menores sin ropa, se difundieron «de forma masiva» por redes sociales como Whatsapp y Telegram
Andalucía, a través de su Consejo Audiovisual (CAA), ha hecho público un informe sobre Aplicaciones web de deepnude con inteligencia artificial generativa, donde se constata que con estas herramientas que facilitan la creación de imágenes de personas desnudas se vulneran derechos de máxima protección que justifican la actuación de los distintos poderes públicos para bloquear el acceso a estas páginas y exigir responsabilidades.
El estudio, consultado por Europa Press, se ha llevado a cabo entre el 12 y el 26 de febrero de 2024 y consiste en una búsqueda activa, mediante el motor de Google, de aplicaciones web específicamente de generación de imágenes virtuales de cuerpos desnudos a partir de una imagen de una persona vestida, conservándose el rostro que aparece en la foto aportada por el usuario.
El pasado mes de septiembre en la localidad extremeña de Almendralejo, más de 20 niñas y adolescentes, con edades comprendidas entre los 11 y los 17 años, denunciaron ser víctimas de una aplicación que genera desnudos utilizando inteligencia artificial.
El objetivo del CAA, de Andalucía, con este informe es analizar los riesgos que conlleva el uso de la IA en el ámbito audiovisual, teniendo en cuenta los datos sobre el incremento del consumo de contenido audiovisual de carácter sexual por parte de los menores y la existencia de aplicaciones generadoras de material pornográfico falso e hiperrealista que circula por las redes y a los que acceden libremente.
Una vez obtenidas esas imágenes de las menores sin ropa, se difundieron «de forma masiva» por redes sociales como Whatsapp y Telegram. Las imágenes fueron creadas a partir de fotografías de ellas completamente vestidas y publicadas en sus redes sociales, utilizando una aplicación llamada Clothoff que genera una visualización virtual de cómo se vería a esa persona desnuda.