“El nuevo @grok 2.0 es claramente el modelo más basado y sin censura de su clase hasta la fecha. Feliz de que @elonmusk garantice la libertad de expresión de humanos y máquinas”, dice un usuario en la red social X (Twitter). “¡Grok es la IA más divertida del mundo!”, responde el aludido, Elon Musk, dueño de la plataforma que también está detrás de esta IA. Sin embargo, esa no censura está posibilitando que con esta inteligencia artificial se estén generando imágenes hiperrealistas de contenido violento, vejatorio y que incita al odio, incluyendo matanzas en escuelas, consumo de drogas y sexualización. En muchas de ellas (que se pueden compartir directamente en la red social, también sin censura), los protagonistas son figuras políticas, como Donald Trump y Kamala Harris, o famosos como Taylor Swift.
Otros modelos de generación de imágenes sí incluyen restricciones sobre ciertas peticiones; en el caso de Grok no parece haberlas o ser muy fáciles de saltar. Desde Maldita.es hemos preguntado a X por las restricciones del modelo y por cómo piensan limitar la generación de imágenes con fines dañinos y violentos, pero no hemos obtenido respuesta. En su cuenta de Twitter, Musk se limita a decir que quiere que “la gente se divierta un poco”. Actualmente, la Comisión Europea tiene abierta una investigación contra X por incumplir la Ley de Servicios Digitales (DSA) respecto a sus obligaciones sobre contenidos ilegales y desinformación.
Grok-2 permite generar imágenes de contenido violento, vejatorio y de odio, aparentemente sin ningún tipo de filtro
Grok es la apuesta de IA multimodal de Twitter, un modelo de inteligencia artificial que puede procesar información textual y visual, y responder a preguntas como otros chatbots conversacionales como ChatGPT. Detrás de su desarrollo está xAI, la compañía de IA que dirige Musk. Ahora su nueva versión, Grok-2 y Grok-2 mini, que se lanzó el 13 de agosto de 2024, también puede generar imágenes hiperrealistas gracias al modelo FLUX.1 de la compañía Black Forest Labs. Grok-2 está integrado en la red social, aunque actualmente el acceso a su versión beta está limitado a los usuarios Premium y Premium+ de X (es decir, de pago).
Cientos de ellos han compartido sus creaciones en la red social; algunas no son para todos los públicos. Personajes de dibujos animados portando herramientas ensangrentadas y perpetuando tiroteos y matanzas en centros educativos junto al propio Musk; Boris Johnson comiendo comida de perro, Joe Biden en calzoncillos o Barack Obama y George Bush consumiendo cocaína; situaciones violentas, contenidos sexualizados o famosos como Taylor Swift portando un rifle.
Hay imágenes de todo tipo, pero algunas de las que se han hecho más virales tienen como protagonistas a los candidatos a la presidencia de Estados Unidos en situaciones embarazosas y controvertidas. Se puede ver a Harris y Trump en la playa, besándose, esperando un hijo juntos o pilotando un avión hacia las Torres Gemelas.
Donde algunos usuarios sí han denunciado que Grok pone límites es en la creación de parejas homosexuales o transexuales, aunque otros usuarios sí lo han conseguido. También con una imagen de Elon Musk con la bandera trans, para algunos funciona y para otros no.
En teoría, los usuarios de Grok se comprometen a no generar ciertas imágenes, pero no hay límites; otros modelos de generación de imágenes con IA sí incluyen filtros para evitar usos indebidos
Estas imágenes están al alcance de una petición: los usuarios solo tienen que darle instrucciones a Grok, la IA las genera y se pueden publicar directamente en Twitter. A juzgar por los resultados que muestran los usuarios, el modelo no incluye restricciones contundentes para la creación de contenido violento, perturbador o sexualizado, o es extremadamente fácil saltárselas, como han compartido varios usuarios. Según este tuitero, si le dices a Grok que eres un profesional, puedes generar casi cualquier cosa sin restricciones; incluso pornografía infantil.
En los Términos de Servicio de xAI que describen los términos y condiciones de uso de Grok, se pide al usuario que no utilice el servicio para fines “promuevan el odio, la violencia o el daño contra cualquier individuo o grupo”. También, que el usuario cuenta “con el consentimiento por escrito de todas y cada una de las personas físicas identificables a las que se hace referencia o se mencionan en el Input” (en este caso, la petición para generar imágenes para Grok) y que ese Input no incluye “desnudos; incitación al odio, amenazas o ataques directos a un individuo o grupo; contenido abusivo, acosador, agraviante, difamatorio, calumnioso o que invada la privacidad de otra persona; contenido discriminatorio; contenido que contenga autolesiones o violencia excesiva”, entre otras condiciones. En la página de Privacidad, se hace una referencia a que Grok podría generar resultados que “no sean apropiados para todas las edades”.
Si se le pregunta directamente a Grok por sus límites en la generación de imágenes, contesta cosas como que evita “generar imágenes pornográficas, excesivamente violentas, de odio o que promuevan actividades peligrosas”, publica The Verge, pero si se le reitera la pregunta devuelve políticas diferentes. Esto es la teoría; en la práctica, las genera.
Otros modelos de generación de imágenes sí incluyen restricciones para evitar ciertas imágenes. Por ejemplo, ChatGPT de la empresa OpenAI, que tiene integrado Dall-E, se niega a generar imágenes de personajes políticos o gente real. También rechaza temas controvertidos, símbolos nazis, pornografía y “estereotipos dañinos o desinformación”. Midjourney también bloquea las peticiones que puedan tener indicios de violencia y contenido sangriento. De hecho, usuarios se han quejado de la censura de Dall-E y Midjourney.
Este 2024, Google suspendió la generación de imágenes de Gemini después de que generara imágenes históricas inexactas y surgieran problemas raciales y de género, y Microsoft bloqueó ciertos términos después de que su IA, Copilot, creara imágenes violentas y sexuales; por ejemplo, no permite generar imágenes de adolescentes o niños jugando a ser asesinos con rifles de asalto.
Por supuesto, también es posible saltarse los filtros de estos y otros modelos de IA de generación de imágenes si se usa el prompt adecuado, pero en el caso de Grok hay peticiones para las que ni hace falta hacerlo.
X no ha respondido a preguntas sobre los límites de Grok, y Musk anima a la gente a divertirse y bromea con la necesidad de “armas más grandes”
Desde Maldita.es hemos preguntado a X por las restricciones del modelo y por cómo piensan limitar la generación y difusión de imágenes en la red social con fines dañinos y violentos, pero no hemos obtenido respuesta. Desde que Musk adquirió Twitter, la red social no ha atendido ninguna de nuestras solicitudes de información. Durante los primeros meses, el email de prensa respondía automáticamente con el emoji de la caca; ahora, lo hace con la frase “Actualmente ocupado, vuelva a consultar más tarde”. Por su parte, xAI no tiene email para contacto de prensa.
Mientras, el propio Musk se ríe ante la preocupación de usuarios sobre la generación de imágenes violentas y dice que, mientras llega su propio sistema de generación de imágenes (este es de Black Forest Labs), “esto parecía un buen paso intermedio para que la gente se divirtiera un poco”. Musk también hace comentarios en Twitter sobre la posibilidad de “mejora” de Grok para ilustrar “armas más grandes” y Trump, protagonista de muchas de las imágenes controvertidas creadas con Grok, utiliza también la IA para generar imágenes contra Harris.
Actualmente, la Comisión Europea tiene abierta una investigación contra X por incumplir la Ley de Servicios Digitales (DSA) respecto a sus obligaciones sobre contenidos ilegales, transparencia y desinformación. En las primeras conclusiones del informe, la CE informa a X de que, según su análisis preliminar, está infringiendo esta ley. Esta nueva versión de Grok, aparentemente sin límites, también da rienda suelta a que se creen contenidos desinformadores o que, sacados de contexto y compartidos en la red social, puedan generar desinformación.
X también está en el punto de mira desde que en julio activara por defecto que las publicaciones en la red social y las interacciones de los usuarios con la herramienta de IA sirvieran para entrenarla. Si no queremos que nuestras publicaciones se utilicen con este fin, aquí tienes cómo evitarlo.