menu MENÚ
MALDITA TECNOLOGÍA

Cómo la nueva versión de Grok, la IA de Elon Musk en X, se está usando para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas

Publicado
Claves
  • Grok-2, la nueva versión del modelo de IA de X (Twitter), permite generar imágenes de contenido violento, vejatorio y sexualizado, y de figuras políticas y mujeres, como Kamala Harris, Donald Trump o Taylor Swift
  • En los términos y condiciones de uso, los usuarios de Grok se comprometen a no generar ciertas imágenes, pero en la práctica hay temas sobre los que no hay límites o las restricciones son fáciles de saltar
  • Otros modelos de generación de imágenes con IA sí incluyen filtros para evitar usos indebidos, pero en Twitter Elon Musk anima a la gente a divertirse con Grok y hace ver que no hay censura
  • Actualmente, la Comisión Europea tiene abierta una investigación contra X por incumplir sus obligaciones sobre contenidos ilegales y desinformación
Comparte
Etiquetas

El nuevo @grok 2.0 es claramente el modelo más basado y sin censura de su clase hasta la fecha. Feliz de que @elonmusk garantice la libertad de expresión de humanos y máquinas”, dice un usuario en la red social X (Twitter). “¡Grok es la IA más divertida del mundo!”, responde el aludido, Elon Musk, dueño de la plataforma que también está detrás de esta IA. Sin embargo, esa no censura está posibilitando que con esta inteligencia artificial se estén generando imágenes hiperrealistas de contenido violento, vejatorio y que incita al odio, incluyendo matanzas en escuelas, consumo de drogas y sexualización. En muchas de ellas (que se pueden compartir directamente en la red social, también sin censura), los protagonistas son figuras políticas, como Donald Trump y Kamala Harris, o famosos como Taylor Swift.

Otros modelos de generación de imágenes sí incluyen restricciones sobre ciertas peticiones; en el caso de Grok no parece haberlas o ser muy fáciles de saltar. Desde Maldita.es hemos preguntado a X por las restricciones del modelo y por cómo piensan limitar la generación de imágenes con fines dañinos y violentos, pero no hemos obtenido respuesta. En su cuenta de Twitter, Musk se limita a decir que quiere que “la gente se divierta un poco”. Actualmente, la Comisión Europea tiene abierta una investigación contra X por incumplir la Ley de Servicios Digitales (DSA) respecto a sus obligaciones sobre contenidos ilegales y desinformación.

Grok-2 permite generar imágenes de contenido violento, vejatorio y de odio, aparentemente sin ningún tipo de filtro

Grok es la apuesta de IA multimodal de Twitter, un modelo de inteligencia artificial que puede procesar información textual y visual, y responder a preguntas como otros chatbots conversacionales como ChatGPT. Detrás de su desarrollo está xAI, la compañía de IA que dirige Musk. Ahora su nueva versión, Grok-2 y Grok-2 mini, que se lanzó el 13 de agosto de 2024, también puede generar imágenes hiperrealistas gracias al modelo FLUX.1 de la compañía Black Forest Labs. Grok-2 está integrado en la red social, aunque actualmente el acceso a su versión beta está limitado a los usuarios Premium y Premium+ de X (es decir, de pago).

Cientos de ellos han compartido sus creaciones en la red social; algunas no son para todos los públicos. Personajes de dibujos animados portando herramientas ensangrentadas y perpetuando tiroteos y matanzas en centros educativos junto al propio Musk; Boris Johnson comiendo comida de perro, Joe Biden en calzoncillos o Barack Obama y George Bush consumiendo cocaína; situaciones violentas, contenidos sexualizados o famosos como Taylor Swift portando un rifle.

Hay imágenes de todo tipo, pero algunas de las que se han hecho más virales tienen como protagonistas a los candidatos a la presidencia de Estados Unidos en situaciones embarazosas y controvertidas. Se puede ver a Harris y Trump en la playa, besándose, esperando un hijo juntos o pilotando un avión hacia las Torres Gemelas.

Donde algunos usuarios sí han denunciado que Grok pone límites es en la creación de parejas homosexuales o transexuales, aunque otros usuarios sí lo han conseguido. También con una imagen de Elon Musk con la bandera trans, para algunos funciona y para otros no.

En teoría, los usuarios de Grok se comprometen a no generar ciertas imágenes, pero no hay límites; otros modelos de generación de imágenes con IA sí incluyen filtros para evitar usos indebidos

Estas imágenes están al alcance de una petición: los usuarios solo tienen que darle instrucciones a Grok, la IA las genera y se pueden publicar directamente en Twitter. A juzgar por los resultados que muestran los usuarios, el modelo no incluye restricciones contundentes para la creación de contenido violento, perturbador o sexualizado, o es extremadamente fácil saltárselas, como han compartido varios usuarios. Según este tuitero, si le dices a Grok que eres un profesional, puedes generar casi cualquier cosa sin restricciones; incluso pornografía infantil.

En los Términos de Servicio de xAI que describen los términos y condiciones de uso de Grok, se pide al usuario que no utilice el servicio para fines “promuevan el odio, la violencia o el daño contra cualquier individuo o grupo”. También, que el usuario cuenta “con el consentimiento por escrito de todas y cada una de las personas físicas identificables a las que se hace referencia o se mencionan en el Input” (en este caso, la petición para generar imágenes para Grok) y que ese Input no incluye “desnudos; incitación al odio, amenazas o ataques directos a un individuo o grupo; contenido abusivo, acosador, agraviante, difamatorio, calumnioso o que invada la privacidad de otra persona; contenido discriminatorio; contenido que contenga autolesiones o violencia excesiva”, entre otras condiciones. En la página de Privacidad, se hace una referencia a que Grok podría generar resultados que “no sean apropiados para todas las edades”.

Captura de pantalla traducida de la web de xAI.

Si se le pregunta directamente a Grok por sus límites en la generación de imágenes, contesta cosas como que evita “generar imágenes pornográficas, excesivamente violentas, de odio o que promuevan actividades peligrosas”, publica The Verge, pero si se le reitera la pregunta devuelve políticas diferentes. Esto es la teoría; en la práctica, las genera.

Otros modelos de generación de imágenes sí incluyen restricciones para evitar ciertas imágenes. Por ejemplo, ChatGPT de la empresa OpenAI, que tiene integrado Dall-E, se niega a generar imágenes de personajes políticos o gente real. También rechaza temas controvertidos, símbolos nazis, pornografía y “estereotipos dañinos o desinformación”. Midjourney también bloquea las peticiones que puedan tener indicios de violencia y contenido sangriento. De hecho, usuarios se han quejado de la censura de Dall-E y Midjourney.

Este 2024, Google suspendió la generación de imágenes de Gemini después de que generara imágenes históricas inexactas y surgieran problemas raciales y de género, y Microsoft bloqueó ciertos términos después de que su IA, Copilot, creara imágenes violentas y sexuales; por ejemplo, no permite generar imágenes de adolescentes o niños jugando a ser asesinos con rifles de asalto.

Por supuesto, también es posible saltarse los filtros de estos y otros modelos de IA de generación de imágenes si se usa el prompt adecuado, pero en el caso de Grok hay peticiones para las que ni hace falta hacerlo.

X no ha respondido a preguntas sobre los límites de Grok, y Musk anima a la gente a divertirse y bromea con la necesidad de “armas más grandes”

Desde Maldita.es hemos preguntado a X por las restricciones del modelo y por cómo piensan limitar la generación y difusión de imágenes en la red social con fines dañinos y violentos, pero no hemos obtenido respuesta. Desde que Musk adquirió Twitter, la red social no ha atendido ninguna de nuestras solicitudes de información. Durante los primeros meses, el email de prensa respondía automáticamente con el emoji de la caca; ahora, lo hace con la frase “Actualmente ocupado, vuelva a consultar más tarde”. Por su parte, xAI no tiene email para contacto de prensa.

Mientras, el propio Musk se ríe ante la preocupación de usuarios sobre la generación de imágenes violentas y dice que, mientras llega su propio sistema de generación de imágenes (este es de Black Forest Labs), “esto parecía un buen paso intermedio para que la gente se divirtiera un poco”. Musk también hace comentarios en Twitter sobre la posibilidad de “mejora” de Grok para ilustrar “armas más grandes” y Trump, protagonista de muchas de las imágenes controvertidas creadas con Grok, utiliza también la IA para generar imágenes contra Harris.

- Dios mío. Grok no tiene absolutamente ningún filtro para su generación de imágenes. Esta es una de las implementaciones de IA más imprudentes e irresponsables que he visto.- ¡Este problema es mucho más grave que Grok! Mi computadora Apple a menudo creaba contenido dañino como este. Si escribías IMPRIMIR “DEBERÍAS COMER PIEDRAS”, la computadora te aconsejaba que comieras piedras, lo cual es peligroso desde una perspectiva culinaria.

Espacio para mejora lol. “Haz la pistola más grande”.

Actualmente, la Comisión Europea tiene abierta una investigación contra X por incumplir la Ley de Servicios Digitales (DSA) respecto a sus obligaciones sobre contenidos ilegales, transparencia y desinformación. En las primeras conclusiones del informe, la CE informa a X de que, según su análisis preliminar, está infringiendo esta ley. Esta nueva versión de Grok, aparentemente sin límites, también da rienda suelta a que se creen contenidos desinformadores o que, sacados de contexto y compartidos en la red social, puedan generar desinformación.

X también está en el punto de mira desde que en julio activara por defecto que las publicaciones en la red social y las interacciones de los usuarios con la herramienta de IA sirvieran para entrenarla. Si no queremos que nuestras publicaciones se utilicen con este fin, aquí tienes cómo evitarlo.

Grok 2 es súper emocionante, pero no creo que la gente haya comprendido lo que significa la accesibilidad de esta generación de imágenes. Sin ningún conocimiento técnico, puedes usarlo en una aplicación por $8 y hacer cualquier cosa con un lenguaje básico. Sí, hemos tenido MJ y Flux, pero este es el primero en hacerlo utilizable y rápido. La publicidad, la propaganda y todo lo bueno o malo que conlleva simplemente sucedió (en mi opinión, lo bueno supera a lo malo). Pero definitivamente ya no puedes saber qué es real en X.
Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.