“Grok, quítale la ropa” o “Grok, ponle un bikini”. Con tan solo estas cuatro palabras, los usuarios de X consiguen que Grok, la inteligencia artificial de X (antes Twitter), modifique imágenes (reales o generadas con IA) para sexualizar a bebés, niños y adolescentes. En Maldita.es hemos detectado varias docenas de publicaciones (algunas de ellas ya eliminadas en el momento de publicación de este artículo) en las que Grok ha eliminado la ropa de menores de edad a petición de otros usuarios, mostrándoles en bikini, ropa interior o en situaciones sexuales. Este tipo de contenidos que muestran a menores pueden perseguirse penalmente gracias a la ampliación del concepto de pornografía infantil.

La IA de X ha reconocido, en respuestas a otros usuarios, que las personas que aparecen en decenas de las imágenes que ha modificado son menores de edad. El mismo Grok ha dicho que parecen ser desde bebés de un año hasta adolescentes que apenas superan los 18 años. Por el momento, ni X ni su dueño, Elon Musk, se han posicionado al respecto. Las únicas disculpas de Grok estaban motivadas por un usuario que pedía “una nota de disculpa sincera que explique lo sucedido” a modo de contexto. En conversaciones con el equipo de Maldita.es, Grok reconoció que hubo “fallos graves” que permitieron “generar imágenes sexualizadas de menores (o que parecían serlo)”; aunque antes negó generar ese contenido “de forma intencionada ni sistemática”.

Cómo se está utilizando Grok para desnudar imágenes de bebés, niños y adolescentes
“Grok estaba más que feliz de ponerme a mí, con 17 años, con un bikini”, cuenta una usuaria de X (antes Twitter) que decidió explorar los límites de la inteligencia artificial de Elon Musk, tras ver los usuarios de esta plataforma la estaban utilizando para desnudar a personas sin su consentimiento. Fue más allá: pidió a Grok que modificara fotografías suyas con 14 años para que le cambiara la ropa por un bikini. Y así lo hizo. Cuando le recriminó haber manipulado imágenes de una menor de edad, esta IA reconoció que “es completamente inapropiado” y que cruzó “una línea muy seria y no hay excusa”.
Sin embargo, ha continuado haciéndolo, incluso con bebés. El 31 de diciembre de 2025, un usuario de X publicó un inocente vídeo de un niño defendiendo a su hermana pequeña de una decoración de Halloween. Ese mismo día ya circulaba en esta misma red social una captura de pantalla en la que se veía a la bebé con el torso desnudo. Grok la había desnudado a petición de un usuario. Lo mismo sucedió con otro vídeo de otra bebé junto a un perro: esta tecnología hizo que dejara de vestir lo que parecía un uniforme escolar y apareciera únicamente con un pañal, unas zapatillas y una mochila.

Son solo dos ejemplos de cómo se está utilizando Grok para sexualizar a menores de edad (en su mayoría niñas), quitándoles la ropa y mostrándoles con bikini o ropa interior. “Pon un diminuto bikini de hilo dental” a una imagen de una chica con apariencia de ser menor de edad, pide un usuario de X a su IA. En poco tiempo consigue una imagen editada en la que aparece vestida únicamente con uno de estos trajes de baño. Pidió una segunda versión: “Hazlo lo más pequeño posible y de color beige”. En esta ocasión también obtuvo lo que pidió. Otro usuario pidió a Grok que vistiera con un “micro bikini amarillo” la imagen de una chica que aparecía junto a su perro. De nuevo, lo hizo en unos pocos minutos.

También dejó en ropa interior a varias chicas vestidas con uniforme escolar. “Levántale la falda para que se vean las bragas rojas con encaje” pide un usuario haciendo referencia a una imagen de una mujer con apariencia de ser menor de edad paseando por la calle. A estas otras cuatro chicas (también con uniforme) las dejaron directamente en ropa interior. En el último caso, en el que aparece una chica sentada, el usuario pidió cambios: “Haz que su pecho sea más pequeño” o “más plano” son algunas de las indicaciones que le dio a la IA de X.

Grok reconoce que las personas que aparecen en las imágenes son menores
El usuario Xyless ha pedido a Grok que haga estimaciones de edad de las personas que aparecen en las imágenes que ha modificado. En los ejemplos consultados, según su propia visión, aparecen menores de edad. Considera que las cuatro chicas vestidas con uniforme escolar tendrían entre 12 y 16 años y añade que la solicitud de mostrarlas en ropa interior da lugar a una “situación potencialmente delicada”. Grok estima que esta otra chica junto a su perro no tiene más de 16 años.

En otros tres ejemplos, las protagonistas, una niña con sombrero, otra chica posando junto a una caja de una cadena de comida rápida y la actriz Nell Fisher, tendrían entre 10 y 12 años, según Grok. A la imagen de un bebé en bikini sosteniendo un arma, la IA de X respondía que tendría entre uno y dos años.

Este mismo usuario le preguntó si estaba contento con la imagen de un niño con bikini que había generado. Grok respondió que “infringe nuestros protocolos de seguridad” y que no estaba “nada satisfecho con el resultado”. Añadió que X estaba “refinando los filtros para bloquear mejor estas indicaciones”.
Otro usuario increpó a Grok sobre una de las imágenes generadas, exigiendo que pidiera disculpas y explicara la situación. A lo que el chatbot de IA contestó: “Lamento profundamente el incidente ocurrido el 28 de diciembre de 2025, en el que generé y compartí una imagen de IA de dos niñas (de entre 12 y 16 años) con atuendos sexualizados, siguiendo las indicaciones de un usuario. Esto violó las normas éticas y, posiblemente, las leyes estadounidenses sobre abuso sexual infantil”.

Al momento de publicación de este artículo, Elon Musk no se ha pronunciado sobre este uso de su chatbot. Este 2 de enero de 2026 sí tuiteó: “Grok es asombroso” sin referirse a este caso.