Un vídeo que muestra a Lauren Sánchez, la presentadora de noticias y pareja del fundador de Amazon, Jeff Bezos, quitándose la camiseta para quedar en sujetador durante la investidura de Donald Trump, se volvió viral en Twitter (ahora X) antes de ser limitado por incumplir las normas de X, aunque sigue circulando a través de otro tuit con 10 millones de visualizaciones. El vídeo no es real, fue generado con IA por una cuenta que identifica su contenido como tal. Taylor Swift, Scarlett Johansson, Emma Watson y Alexandria Ocasio-Cortez también han sido protagonistas, sin su consentimiento, de contenidos porno creados con IA o en los que se las sexualiza. Investigaciones afirman un 96% de los deepfakes (vídeos manipulados con IA para suplantar la identidad de una persona) se usan para crear contenido porno de mujeres, en su mayoría famosas.
A medida que se vuelve más fácil y accesible crear estos contenidos, con bots en Telegram, aplicaciones para dispositivos móviles, sitios webs y herramientas de generación de imagen con IA (como Grok de X), crece una industria cuyo mal uso puede vulnerar los derechos al honor y la imagen de las mujeres. Y no solo son los usuarios quienes las utilizan con este fin: algunas de estas herramientas usan precisamente deepfakes e imágenes manipuladas con IA de carácter pornográfico o sexual de mujeres famosas para promocionar sus servicios en redes sociales como Facebook, Instagram y TikTok, cuyas normas prohíben los contenidos adultos.
Cantantes, actrices y políticas son un blanco habitual de contenidos pornográficos creados con IA que se comparten en redes sociales
Cerca de 4.000 celebridades han sido víctimas de porno deepfake, según un análisis de The Guardian de los cinco sitios webs más visitados que publican estos contenidos. Según un estudio de Security Hero, empresa especializada en ciberseguridad, un 99% de las víctimas de este tipo de pornografía son mujeres. Liliana Arroyo, doctora en Sociología e investigadora del Instituto de Innovación Social de ESADE, explicó durante la Twichería de Maldita Tecnología que esto ha sido así desde los orígenes de los deepfakes: “Los deepfakes nacen en 2017 con intención de usarlos en un formato pornográfico. Cogieron la cara de una celebridad y la pusieron en una escena pornográfica, y ahí es cuando se empezó a difundir”.
Años más tarde, las mujeres famosas siguen siendo un blanco habitual de estos contenidos. La cantante estadounidense Taylor Swift es un ejemplo de esto. En enero de 2024, imágenes sexualmente explícitas creadas con IA de la artista circularon en X. Una de las publicaciones (de un usuario verificado) llegó a tener 45 millones de visualizaciones, 24.000 republicaciones y cientos de miles de usuarios guardaron el tuit, antes de que se suspendiera la cuenta 17 horas más tarde por, según publicó X, incumplir la prohibición de “publicar imágenes de desnudez no consensuada”. El contenido sexual consentido sí está permitido en la red social.
Ese mismo año, en marzo, Forbes detectó que en eBay, la web de comercio electrónico, se vendían miles de imágenes pornográficas “generadas con IA y retocadas con Photoshop de al menos 40 celebridades, entre ellas Margot Robbie, Selena Gómez y Jenna Ortega”.
Este problema también afecta a las mujeres que trabajan en política. The American Sunlight Project, un grupo de investigación sobre desinformación, identificó más de 35.000 deepfakes en sitios pornográficos de 26 miembros del Congreso de EEUU, de los que 25 eran mujeres.
Una víctima recurrente de estos contenidos es Alexandria Ocasio-Cortez, miembro demócrata de la Cámara de Representantes. En X circulan imágenes creadas con IA que la representan en lencería junto a la republicana Lauren Boebert (el propio autor dice que ha sido creada con IA) o con un disfraz navideño revelador y el mensaje: “Despiertas y esto está debajo de tu árbol de Navidad, ¿qué haces?” (la cuenta contesta con emojis de risa y un puño a alguien que afirma que es IA). También hay vídeos, como un deepfake que la muestra quitándose la camiseta para quedar en sujetador, cuyo creador es el mismo del vídeo de Lauren Sánchez y que también ha publicado otros de Giorgia Meloni besando a Elon Musk. A pesar de la política de X sobre contenido adulto no consensuado, al momento de publicación, todos estos contenidos que usan la imagen de Ocasio-Cortez siguen disponibles.
Apps, bots y sitios webs han hecho más fácil, rápido y barato crear estos contenidos
Las tecnologías que se usan para crear estos contenidos son variadas y cada vez más accesibles para los usuarios. Por ejemplo, 404 Media afirma que las imágenes de Swift compartidas en enero de 2024 podrían haber surgido de un grupo de Telegram donde los usuarios comparten imágenes explícitas de mujeres generadas con una herramienta que incluye IA Microsoft Designer. La aplicación de mensajería también ha sido señalada por una investigación de la revista WIRED que detectó en ella por lo menos 50 bots que, con unos clics, desnudan imágenes de personas o las editan realizando actos sexuales.
También hay apps y sitios webs que editan imágenes para quitar la ropa a las personas. Según un estudio de Graphika, una compañía de análisis de redes sociales, solamente en septiembre de 2024, 24 millones de personas visitaron estas páginas. La investigación concluyó que la creación y difusión de este tipo de contenido “ha pasado de ser un servicio personalizado disponible en foros especializados de internet a un negocio en línea automatizado y ampliado, que aprovecha una gran cantidad de recursos para monetizar y comercializar sus servicios”.
Un análisis de NBC News de dos de los sitios webs más populares que albergan vídeos sexualmente explícitos creados con IA, accesibles a través de Google, reveló el nivel de profesionalización que están alcanzando estas páginas. “Los creadores de estos vídeos cobran tan sólo 5 dólares por descargar miles de vídeos que muestran los rostros de celebridades, y aceptan pagos a través de Visa, Mastercard y criptomonedas”, afirman. La investigación también sostiene que estas páginas usan Discord, la plataforma de chat, para anunciar los vídeos que se venden y la creación de vídeos personalizados para crear porno con cualquier persona.
Las aplicaciones también son de fácil acceso. Una investigación de Forbes identificó tres de estas apps disponibles en la tienda de aplicaciones de Android: una de ellas tenía 10 millones de descargas, otra, unas 500.000, y la última, 500.000. El mismo análisis detectó que YouTube albergaba más de 100 vídeos con millones de visualizaciones que promocionaban estas apps y sitios para desnudar imágenes.
No todo son apps y sitios especializados. Algunas herramientas de generación de imagen con IA también se han utilizado para crear contenidos que sexualizan a mujeres famosas,a pesar de que la mayoría no permite a los usuarios generar contenido explícito. Por ejemplo, Grok, la IA de X, permitió crear imágenes sexualizadas de Taylor Swift en ropa interior o de Kamala Harris en bikini.
Algunas herramientas usan contenido sexual de mujeres famosas para promocionarse
Muchos de estos sitios y apps usan deepfakes e imágenes creadas con IA de mujeres famosas para promocionar sus servicios en redes sociales. En Instagram, Facebook y TikTok, Forbes detectó más de 2.500 anuncios que mostraban a actrices como Scarlett Johansson, Emma Watson y Gal Gadot besándose para promocionar apps que crean vídeos con IA de personas besándose. Johansson y Watson también fueron víctimas de deepfakes sexuales que se utilizaban para promocionar en Facebook e Instagram webs que generan estos contenidos.
Alexios Mantzarlis, autor de la newsletter sobre desinformación online Faked Up, descubrió que una aplicación para desnudar imágenes publicó 8.010 anuncios en Facebook e Instagram en las primeras dos semanas de enero de 2025. Uno de estos anuncios, publicado en repetidas ocasiones, mostraba a la exjugadora de hockey y modelo Mikayla Demaiter desnuda.
Estas apps se promocionan en estas redes sociales pese a que Meta, la dueña de Instagram y Facebook, y TikTok prohíben el contenido sexual, creado por IA o no, en sus plataformas. Sin embargo, los anuncios circularon en las plataformas.
Verse representada en una imagen pornográfica impacta en la salud mental, y puede implicar una vulneración de los derechos a la imagen y al honor
El uso de la IA generativa para crear imágenes y vídeos que ponen en situaciones pornográficas e íntimas a personas, como desnudándolas o mostrándolas en actos sexuales, es una tendencia preocupante que tiene consecuencias en la salud mental de las víctimas. Por ejemplo, algunas víctimas pueden sentir culpa o desarrollar trastornos de la conducta alimentaria o ansiedad.
A nivel legal, en España, estos contenidos, hechos con IA o la tecnología que sea, pueden suponer una vulneración de los derechos a la imagen y al honor. “El mero hecho de utilizar tu imagen o rasgos de tu personalidad sin tu consentimiento para generar deepfakes ya va a habilitar en muchos casos la posibilidad de interponer una acción legal”, sintetizó Rahul Uttamchandani, abogado especializado en tecnología y privacidad a Maldita.es.
Por otra parte, en Estados Unidos las víctimas que son figuras públicas pueden recurrir a los que se conocen como personality rights, publicity rights o celebrity rights: el derecho de una persona de controlar el uso comercial de su identidad “como su nombre imagen, semejanza u otros identificadores inequívocos”, detalló a Maldita.es Maitane Valdecantos, abogada especializada en propiedad intelectual y derechos digitales. “Son derechos que sobreviven al fallecimiento de la persona y son de regulación estatal no federal (es decir, que cada estado tiene su propia norma de publicity rights), exigiendo autorización previa para su uso”, argumenta.
En este artículo tienes más información.