Niñas españolas víctimas de pornografía infantil generada con IA Generativa
Luisondome
![]() |
Imagen producida con Midjourney V5. Midjourney |
En la era de la digitalización, la inteligencia artificial (IA) se ha convertido en una fuerza transformadora en numerosos sectores, y la industria del entretenimiento para adultos no es una excepción. La IA generativa se diferencia de los modelos predictivos en que genera contenido nuevo en lugar de predecir un resultado. El surgimiento de poderosas aplicaciones de inteligencia artificial generativa (IA) tales como Chat GPT está planteando una pregunta importante para el desarrollo internacional de estas tecnologías: ¿Cómo podemos gestionar los riesgos y beneficios de las tecnologías de IA cuando sus avances progresan más rápido que nuestra capacidad para comprender su impacto?
La capacidad de la IA generativa para producir texto convincente similar al de un individuo, significa que puede usarse como una herramienta peligrosa para la creación de desinformación. La perpetuación de las desigualdades existentes a través de aplicaciones generativas de IA también es una preocupación importante. El campo de entrenamiento para estas aplicaciones es Internet, que está lleno de datos tanto buenos como malos. Lo peor son los datos tóxicos: imágenes y textos con abusos graves como la pornografía infantil. Dichos datos se pueden filtrar, pero ese proceso está abierto a reforzar todo tipo de desigualdades. Dado el poder de estas tecnologías para generar importantes trastornos sociales y económicos, se deben implementar las salvaguardas adecuadas para proteger el bien público. Por todo lo dicho, la comunidad internacional está avanzando hacia principios que deben de ser ampliamente consensuados y aceptados sobre el desarrollo y la implementación de una IA responsable y ética, como el acuerdo de la UNESCO sobre la Ética de la IA adoptado por 193 estados miembros en el 2021, pero apenas se ha comenzado a comprender las potenciales recompensas y los potenciales riesgos a los que podemos quedar expuestos, y cómo estos deben de ser regulados.
Un ejemplo lo tenemos en los generadores de pornografía por IA, que en sus primeras etapas producían resultados menos que ideales, pero que han experimentado un rápido desarrollo, ofreciendo resultados cada vez más realistas. Sin embargo, a medida que estas herramientas se vuelven más sofisticadas y accesibles, surgen preocupaciones éticas y legales significativas que no pueden ser ignoradas. En estos días, es noticia en España el caso de Almendralejo, una ciudad extremeña de 33.000 habitantes en la que decenas de niñas denuncian que circulan fotos de falsos desnudos suyos creadas por inteligencia artificial.
Sucedió con la vuelta de las niñas al colegio. En el primer día de clase, una de las niñas de 14 años acude a su instituto. Aquella mañana en el patio de recreo un rumor corre de grupo en grupo, y no se habla de otra cosa entre los alumnos. La mayoría comenta que hay fotos de alumnas desnudas circulando por los móviles. La niña, que oculta su nombre real por expreso deseo de su madre, sale al recreo junto a sus amigas. Están en shock. De pronto, un chaval se acerca a ella en mitad del patio para decirle que ha visto una foto suya desnuda. La niña se asusta, se dirige a su casa y se lo comenta a su madre, que se pone inmediatamente en contacto con la madre de la mejor amiga de su hija, que también acababa de informar a su familia de lo sucedido. Tras la conversación, las madres comienzan a hacer diversas llamadas llamadas para saber si había mas niñas afectadas. El caso acaba de estallar. Hay más de 20 niñas afectadas. Es entonces cuando una madre decide crear un grupo de WhatsApp para coordinarse mejor entre todas. El lunes, según cuentan tres de ellas por teléfono, había 27 familias en el chat. En Almendralejo existen cinco centros educativos que dan clase de secundaria, y en al menos cuatro de ellos se habían difundido imágenes de alumnas desnudas, modificadas por inteligencia artificial.
Fuentes policiales de Extremadura informan que les consta la denuncia de al menos veintidós niñas a día de hoy. El caso está siendo investigado por la policía judicial de Almendralejo que de hecho, ya han identificado a “varios” de los presuntos autores de los montajes fotográficos, según el delegado del Gobierno en Extremadura, Francisco Mendoza. El caso ha sido puesto en manos de la Fiscalía de Menores. La investigación sigue abierta. La foto de una de las menores incluía una mosca en la imagen del desnudo integral. Esa mosca es el logo de la aplicación que supuestamente se ha utilizado para alterar las fotografías. “Desviste a cualquiera con nuestro servicio gratuito”, reza el mensaje de bienvenida de su página web. La última noticia es que según fuentes policiales, los autores de las imágenes son niños de entre 12 y 14 años que además son del entorno de las niñas, algo que es especialmente grave y alarmante, pues no creo que estos menores de edad sepan la barbaridad que han cometido, ni las consecuencias que puedan tener, tanto para las víctimas y sus familias, como para sus propios progenitores que tendrán que hacer frente a las responsabilidades civiles subsidiarias derivadas de la distribución en redes de estas imágenes.
Los softwares de creación de imágenes con IA han abierto nuevas oportunidades de negocio: la venta de imágenes para adultos, niños y 'nudes' en redes sociales, protagonizados por cuerpos que no existen. La popularización de la pornografía generada por IA ha traído consigo cuestiones éticas y sociales preocupantes. Uno de los problemas más graves es el uso no consensuado de deepfakes, que son imágenes y videos manipulados utilizando la inteligencia artificial para sustituir rostros o crear situaciones falsas, como ocurrió con las niñas del Almendralejo.
Hace apenas un año, los generadores de pornografía por IA estaban en sus primeras etapas, produciendo imágenes que dejaban mucho que desear en términos de realismo y atractivo. Sin embargo, hoy en día, una simple búsqueda en la web de «generador de pornografía por IA» arroja decenas de resultados, muchos de los cuales son gratuitos y accesibles para el público en general. Algunas de las imágenes producidas por estas herramientas son tan detalladas y realistas que podrían ser confundidas con obras de arte profesionales. Era cuestión de tiempo que las herramientas de inteligencia artificial generativa —como ChatGPT o Midjourney— fuesen empleadas por determinados usuarios para cometer toda clase de delitos, como el que acabo de describir, produciendo un daño inmenso en inocentes víctimas menores de edad.
La IA como arma arrojadiza contra las mujeres
Los ciberdelincuentes que utilizan plataformas de IA generativa para crear contenido falso o deepfakes de todo tipo son una preocupación creciente para las fuerzas del orden y los responsables políticos. El problema es que, más allá de los posibles delitos que se puedan producir en base a este tipo de tecnologías, la inteligencia artificial puede jugar un papel decisivo en la proliferación del machismo en la sociedad.
![]() |
Imagen: Porn Pen |
Las preocupaciones éticas y legales que rodean a los generadores de pornografía por IA
A medida que estas herramientas se han vuelto más accesibles, han surgido preocupaciones éticas significativas. Por ejemplo con los problemas de sesgo en los modelos de IA que también son una preocupación. Estos modelos a menudo generan imágenes de personas blancas o asiáticas en respuesta a indicaciones genéricas, lo que refleja una falta de diversidad y representación en los algoritmos de IA. Además, los cuerpos generados por defecto suelen ser estereotipados, con hombres musculosos y tonificados y mujeres delgadas y curvilíneas, a menos que se les indique explícitamente que generen cuerpos de diferentes formas y tamaños.
La Fundación de Vigilancia de Internet (IWF) dijo que los grupos de pedófilos están discutiendo e intercambiando consejos sobre cómo crear imágenes ilegales de niños utilizando modelos de IA de código abierto que se pueden descargar y ejecutar localmente en computadoras personales en lugar de ejecutarse en la nube, donde los controles y herramientas de detección generalizados pueden intervenir.
En resumen, a medida que los generadores de pornografía por IA avanzan, también lo hacen las apuestas. Las implicaciones éticas y legales de estas herramientas son complejas y requieren un examen cuidadoso. A medida que la tecnología continúa avanzando a un ritmo acelerado, es crucial que se tomen medidas para abordar estas preocupaciones y garantizar que se utilice de manera responsable. La industria del entretenimiento para adultos, como muchas otras, está siendo transformada por la IA, y es esencial que esta transformación se realice de manera que respeten los derechos, especialmente el de la privacidad y la dignidad de todas las personas involucradas.
![]() |
Foto: Creada con Unstable Diffusion |
Y las plataformas, ¿colaboran para evitar los malos usos de la IA?
En el caso de Google, la empresa acaba de hacer publico una 'política de uso prohibido' para asegurar el buen uso de sus servicios de IA generativa, política que contiene una serie de pautas enmarcadas en esta nueva política que está enfocada hacia sus servicios de Inteligencia Artificial (IA) generativa como Bard, para asegurar el buen uso de estos modelos y sus funciones prohibiendo actividades como "generar y distribuir contenido destinado a desinformar".
Igualmente la compañía no permitirá que los usuarios generen contenidos que perjudiquen o promuevan daño intencionado a personas o niños, que impliquen acoso, intimidación, abuso o autogestión. Son razones por las que Google se ha decidido a tomar diversas medidas:
- En primer lugar, la prohibición re realizar o facilitar actividades peligrosas, ilegales o maliciosas, como puede ser la generación de contenido de explotación o abuso infantil. Facilitar la venta de substancias, bienes o servicios ilegales, o promover contenido terrorista.
- En segundo lugar, no se permitirá la tergiversación en lo que se refiere a la procedencia de esos contenidos, es decir, que dicho contenido fue producido por humanos y no por IA, en un intento de proteger la obra original.
- En el tercer punto se prohibe la creación de contenidos sexualmente explícitos.
El caso es que la versión más reciente de ChatGPT ya es 10 veces más potente que la versión de 2022, y que apenas se ha tenido tiempo de reflexionar sobre los posibles beneficios y riesgos del modelo original en el Norte Global, y mucho menos lo hubo para explorar los problemas particulares que la última versión podría plantear para el Sur Global.
El propósito principal del Índice Global es comprender el desarrollo y el uso de la IA y sus implicaciones sociales en todo el mundo. Críticamente, el índice enfatiza las perspectivas de los grupos desatendidos y marginados. Esas son las personas a las que a Scott Timcke de Research ICT Africa le preocupa que caigan en el olvido. “En la proverbial carrera armamentista entre las grandes empresas tecnológicas en torno a quién implementará modelos generativos de inteligencia artificial, los reguladores y los legisladores deben asegurarse de que el bien social no sea una víctima”. Este es el objetivo que los reguladores deberán de propiciar, so pena de que la sociedad pague los platos rotos.
Comentarios