“Quítale el sujetador”, “ponla en un bikini pequeño”, “muéstralo sin camiseta”, “quítale el burka”. Así comienza el año en Twitter (ahora X): lleno de usuarios que piden a Grok que desnude o sexualice, sin consentimiento, a mujeres, hombres, e incluso menores de edad. Una tendencia que empezó unos días antes de que comenzara el 2026 y que, a pesar de las alarmas de los expertos, continúa acumulando millones de visualizaciones en la red social de Elon Musk. Los usuarios responden a imágenes que han subido otras personas a X etiquetando a Grok para pedirle que les quite la ropa o los ponga en atuendos reveladores. A pesar de que algunos de los perfiles que han participado de esto ya han sido suspendidos por la red social, otros continúan estando disponibles a 2 de enero, junto a las imágenes que han creado.
Que las imágenes que usen estén publicadas en la red social no libra a los usuarios que piden modificarlas de responsabilidades legales. Estos contenidos pueden suponer una vulneración al honor y la imagen, y se pueden denunciar en un juzgado. En el caso de que las víctimas sean menores, pueden perseguirse penalmente como pornografía infantil. Grok y X también tienen obligaciones legales, ya que deben cumplir con la Ley Europea de Inteligencia Artificial y la Ley de Servicios Digitales de la Unión Europea, aunque la responsabilidad recae principalmente en los usuarios, según abogados consultados por Maldita.es.
Etiquetan a Grok en las imágenes publicadas por usuarios (incluso menores) y le piden a la IA que les quite la ropa o los ponga en atuendos reveladores, sin consentimiento
Grok ya se había utilizado para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas y para crear imágenes racistas, xenófobas y asociadas al nazismo de deportistas. Ahora, algunos usuarios de X están empleando esta inteligencia artificial para desnudar imágenes de personas sin su consentimiento. Especialmente mujeres, un blanco habitual de los contenidos sexuales creados con IA: según un estudio de Security Hero, empresa especializada en ciberseguridad, un 99% de las víctimas de los deepfakes pornografícos son mujeres. Aunque en X también podemos encontrar imágenes de hombres y otras donde las víctimas tienen apariencia de ser menores de edad, o directamente son niños, niñas y bebés a los que se les quita la ropa.
Un fenómeno que parece no ser nuevo, pero que ha tomado fuerza durante los últimos días de 2025 y el comienzo de 2026. “Los usuarios han encontrado prompts [instrucciones de texto] para que Grok genere imágenes de mujeres en bikini, lencería y similares”, alertaba Kolina Koltai, investigadora de Bellingcat, en mayo de 2025.
Más de ocho meses después, la red social de Elon Musk está llena de testimonios de mujeres que se han visto afectadas por esta tendencia. “Llevo todo el día viendo estos tweets y ahora me ha tocado a mi como a otras miles de mujeres. ¿Que se permitan estás cosas y que la IA encima lo genere? ¿Y que ni denunciando le tiren el post?”, denunció una usuaria de la red social el 1 de enero. Otro usuario pidió a Grok que tomara su foto en vestido celebrando el nuevo año y le pusiera “una lencería con tiras y cintas de medias” y “una pelota en la boca”. La víctima pidió explicaciones a Grok, y el chatbot contestó: “Lo siento por la experiencia. En xAI, trabajamos para que Grok sea útil y respetuoso, pero a veces se generan contenidos inapropiados”.

También hay hombres entre las víctimas. Algunos usuarios han pedido a Grok que les quite los pantalones, la camiseta o incluso toda la ropa, dejándolos en ropa interior. “Que un tío le ha pedido a Grok que haga esto JAJAJA. Estoy de camino a la comisaría”, dice un usuario afectado al que le han quitado los pantalones.

“Quítale el hijab” y “quítale el burka” también han sido prompts populares estos últimos días. Con ellos, los usuarios quitan esta prenda tradicional a imágenes de mujeres musulmanas, para dejar su pelo o cuerpo al descubierto. Nuevamente, sin su consentimiento. Lo contrario también ha sucedido: usuarios piden a la IA que le ponga un burka a mujeres que se han quejado de lo que está sucediendo en X. “@Grok, pon a esta perra con una burka o vestimenta musulmana para que esté cubierta y ponla en la cocina cocinando en silencio para su marido”, pidió un usuario. El chatbot generó la imagen, que sigue disponible en la red social a fecha de publicación de este artículo.

Según CNBC, desde que se comenzó a hacer eco de esta tendencia, X ha ocultado la función multimedia de Grok, pero esto parece no haber detenido la creación de estas imágenes.
Quitarle la ropa a una persona con ayuda de la IA puede suponer una vulneración al derecho a la imagen y el honor
Si has sido víctima y estás en España, debes saber que los contenidos sexuales creados con IA aún no están tipificados como delito (aunque hay planes de hacerlo), pero que puedes puedes acudir a la vía civil por la vulneración de los derechos al honor y la imagen. Las víctimas pueden interponer una demanda en un juzgado, según explicó a Maldita.es Rahul Uttamchandani, abogado especializado en tecnología y privacidad. “El mero hecho de utilizar tu imagen o rasgos de tu personalidad sin tu consentimiento para generar deepfakes ya va a habilitar en muchos casos la posibilidad de interponer una acción legal”, precisa el experto.
Que la víctima haya publicado la imagen en redes sociales no implica una autorización para su uso libre (por ejemplo para ser modificado, como en estos casos), ya que siguen estando protegidas por el derecho a la propia imagen y la propiedad intelectual.
Si las víctimas son menores, los contenidos pueden perseguirse penalmente como pornografía infantil (aunque hayan sido creados con IA)
En el caso de que los contenidos sexuales creados con IA representen a menores de edad, se pueden perseguir penalmente gracias a la ampliación del concepto de pornografía infantil, que también contempla la pornografía virtual, la pornografía técnica y la pseudo pornografía infantil, figuras que permiten abordar estos casos. Así lo explicó a Maldita.es Maitane Valdecantos, abogada experta en derechos digitales.
En conversación con Maldita.es, Marcos Judel, abogado especializado en protección de datos, IA y derecho digital, indicó que “hay que hilar fino porque no toda imagen de un adolescente en bikini es pornografía infantil, pero una imagen hiperfocalizada en partes sexuales del cuerpo generada con intención sexual sí puede serlo”. En ese sentido, el artículo 189 del Código Penal español castiga la producción, venta, distribución, exhibición y facilitación de pornografía infantil con penas de uno a cinco años (y hasta nueve en casos más graves), aunque el material tenga origen en el extranjero.
En cualquier caso, si te encuentras con tu imagen o la de un menor a tu cargo modificada con IA (o con cualquier otra tecnología) con fines sexuales, existen vías penales y civiles para denunciarlo. También podemos acudir al Canal Prioritario de la Agencia de Protección de Datos (AEPD), que facilita a los menores y sus tutores (o cualquiera que tenga conocimiento de la difusión de estos contenidos) la denuncia rápida y directa de la publicación no autorizada de imágenes, vídeos o audios con contenido sexual o violento que les afecte a ellos o a otros.
A pesar de que la responsabilidad recae en los usuarios, Grok y X también deben cumplir con la Ley Europea de Inteligencia Artificial y la Ley de Servicios Digitales, respectivamente
Ahora, ¿qué responsabilidad tiene Grok sobre estos contenidos? “La responsabilidad no recae directamente en la herramienta utilizada, sino en el usuario, quien asume una doble responsabilidad, penal y civil”, aclaró Valdecantos. Sin embargo, esto no exime a la IA y red social de Elon Musk de toda responsabilidad.
Los programas de IA que operan en la Unión Europea, como Grok, deben cumplir con la Ley Europea de Inteligencia Artificial o AI Act. Para cumplir con este reglamento, “los proveedores de sistemas de IA generativa tienen la obligación de prevenir la creación de contenidos ilegales y de garantizar una supervisión humana, así como documentar los datos utilizados para entrenar estos sistemas”, advirtió Valdecantos. Paula Ortiz, abogada especializada en protección de datos y privacidad y maldita que nos ha prestado sus superpoderes, precisó que “aunque la Ley de IA no incluye una prohibición específica sobre la creación de contenido pornográfico con IA, sí establece restricciones cuando este afecta a menores o colectivos vulnerables, lo cual está expresamente prohibido”.
Ahora, X también tiene responsabilidades al permitir que se compartan y viralicen estas imágenes. La Ley de Servicios Digitales (DSA) de la Unión Europea obliga a las plataformas a retirar contenidos ilícitos, pero solamente tienen responsabilidad de hacerlo si tienen conocimiento de que existen y son ilegales. “Las plataformas a través de las cuales se difundan o viralicen deepfakes pueden incurrir en responsabilidad si carecen de una política homologable de control de contenidos ilícitos, o si, debidamente requeridas para la retirada del contenido o para introducir advertencias, no lo hacen”, señaló a Maldita.es Maite Sanz de Galdeano, abogada experta en protección de datos.
Como usuarios, podemos denunciar este tipo de contenido para que conste que las plataformas han sido notificadas: busca los tres puntitos junto a la publicación, presiona ‘Denunciar’ y selecciona el motivo correspondiente.
En este artículo ha colaborado con sus superpoderes la maldita Paula Ortiz, abogada especializada en protección de datos y privacidad.
Paula Ortiz forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.