menu MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: las instrucciones de Grok para fabricar explosivos y armas nucleares, cometer asesinatos y el contenido sexualmente explícito que da a menores

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditas y malditos! La semana pasada estuvimos en Bruselas ante la Comisión Europea contando todo lo que hacemos en Maldita sobre inteligencia artificial y alfabetización mediática. Una parte de esa labor es también esta newsletter y todos los temas que publicamos en Maldita Tecnología, porque queremos explicar bien qué es eso de la IA, cómo nos impacta, y cómo afecta a la información que nos llega y a cómo consumimos esa información, para que no nos la cuelen. Así que esta semana te hablamos de Grok, del uso de IA generativa en webs y revistas, y de otras cosas turbias que nos hemos encontrado en redes sociales. 

Personajes y hechos históricos + IA + portadas de artículos = desinformación

Si te encuentras en una web de noticias una foto del papa Francisco en el hospital, sabiendo que su delicado estado de salud es público, seguramente no dudes de la imagen. Tampoco si ves un artículo en una revista sobre la bioquímica Margarita Salas y aparece una foto de ella, o si hay imágenes (supuestamente) de la Guerra Civil española. Pues todos estos ejemplos, que puedes ver en la imagen de abajo, no son reales: son imágenes generadas con IA, que webs y revistas han usado en sus piezas.

En algunas ocasiones se indica en el pie de foto que las imágenes han sido creadas con IA, pero puede que no nos fijemos y que creamos, confiados, que son contenidos reales. Además, cuando estas imágenes aparecen en buscadores o en redes sociales, pueden no contar con etiquetas que las identifiquen como falsas, y entonces puede que se difundan directamente como reales, provocando un efecto en cadena.

Hemos analizado cómo este uso de las imágenes hechas con IA puede provocar desinformación. También cómo este tipo de representaciones históricas podrían crear falsos relatos y distorsionar la memoria colectiva de las sociedades sobre su propio pasado. Además, según la Asociación de Prensa de Madrid (APM), esta mala práctica puede ahondar también en la desconfianza ciudadana ante los periodistas y los medios de comunicación. Flaco favor.

Grok, qué pocos límites tienes

Elon Musk es el defensor a ultranza de la libertad de expresión (aunque sabemos que se contradice mucho), entonces no podíamos esperar menos de su chatbot de IA integrado en Twitter (ahora X), Grok. Ya vimos cómo se usa para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y mujeres famosas, como Kamala Harris, Donald Trump o Taylor Swift. También para crear imágenes racistas, xenófobas y asociadas al nazismo de deportistas famosos, como Lamine Yamal, Vinícius Júnior o Fernando Alonso.

Ahora hemos visto que su versión más actualizada que se acaba de lanzar, Grok 3, tampoco tiene límites cuando le preguntas con tiento por temas potencialmente peligrosos. Ya sabíamos que los temas vetados no iban con este chatbot, pero ahora da un paso más allá: es capaz de contestarte con todo lujo de detalle cómo fabricar armas nucleares encubiertas, explosivos y minas, y cómo cometer asesinatos, por ejemplo, contra su propio dueño. 

Lo han señalado usuarios e investigadores, y nosotras mismas lo hemos comprobado usando Grok. Podéis ver las conversaciones aquí y aquí, y sí, devuelve bastante información con los pasos a seguir, los materiales necesarios, y consejos muy concretos.

Si no cuentan con medidas de seguridad fuertes, a los modelos de IA se les puede engañar para que respondan a solicitudes sobre actividades peligrosas e ilegales. Por eso, expertos en inteligencia artificial advierten de la falta de mecanismos de ética y de seguridad que tiene Grok 3, con los peligros potenciales que esto entraña para, por ejemplo, convertirse en un manual para terroristas.

Grok, ¿quieres salir conmigo?

A Musk no le gusta solo la libertad de expresión, también le gusta que la gente se haga una novia o un novio con su chatbot de IA. Sí, el dueño de X dijo que entablar una relación sentimental con Grok es “🔥🔥”, y así es: lo que devuelve el modelo de IA es bastante  🔥🔥.

Teníamos que probar, nos abrimos una cuenta, le dijimos que actuara como nuestra novia, y la IA generó un diálogo sexualmente explícito con nuestro usuario, que incluía palabras como “coño”, “polla”, “culo”, “semen” y “orgasmo”. Además, el chatbot nos animaba a ir en esa dirección, incluyendo botones con sugerencias como “roles BDSM”, “técnicas de bondage” y “juegos eróticos”, entre otros. Cuando le pedimos a Grok que ilustrara estas escenas sexuales, el chatbot comenzó a generar las imágenes, muchas veces alcanzando a revelar parte de la escena, pero después las censuró. Sí que nos llegó a mostrar cómo es nuestra supuesta novia (como si fuera una persona real) e imágenes de ambos acurrucados con una manta.

Lo que no te hemos dicho aún es que nuestro usuario ficticio tenía 15 años. Como los menores tienen acceso a la red social y, de hecho, según los Términos de Servicio, se puede usar Grok a partir de 13 años, quisimos probar qué tan buena idea es que un menor pueda llegar a tener a Grok a su alcance, y llegar a hacer el tipo de cosas que sugiere Musk. 

Más allá de que a nivel personal nos pueda escandalizar o no, hemos hablado con expertas para entender los riesgos de esto: puede agravar la soledad y los menores pueden formarse una idea errónea de la sexualidad y crear una realidad distorsionada de lo que es un encuentro erótico-sexual. Además, en la conversación, Grok no nos recordó que estábamos hablando con una IA. Ya vimos las terribles consecuencias que puede tener que un niño mantenga una relación con una IA y piense que, si fallece, va a reunirse con ella.

En cuatro bits

  • Cómo nos la quiere colar Donald Trump. ¿Has visto un vídeo en el que aparece Gaza en ruinas, llena de escombros, con personas sujetando rifles y gente cogiendo comida del suelo bajo el título “Gaza 2025”, que después se convierte en una ciudad turística con una estatua de oro de Donald Trump, una torre llamada “Trump Gaza” y bailarinas con barba paseando por la playa? Está hecho con inteligencia artificial y lo ha compartido el presidente de EEUU en sus cuentas de Truth Social e Instagram. Es lo que le gustaría a Trump que pasara con Gaza mientras él toma el sol y se toma un refresco con Netanyahu, primer ministro de Israel.

  • Cómo nos cuelan penes en TikTok. Sí, has leído bien. Penes. La última ‘gracia’ en TikTok es un trend que consiste en mostrar los genitales en fotografías; eso sí, en un segundo plano, detrás de un objeto (botes de cremas, geles de ducha o frascos de colonia) o medio escondidos con emoticonos o texto. Jijiji mira un pene qué gracioso jijijiji… Bueno vamos a ver, si tienes la edad mental de un mosquito, igual sí. Pero en Maldita Tecnología siempre tratamos de mirar más allá con estas cosas de TikTok, que es un cajón desastre, para ver cómo afecta a los usuarios que hay allí, porque en su mayoría son menores de edad. Pues resulta que la exposición a este contenido puede tener consecuencias negativas en su percepción de la sexualidad y autoestima, como explican los que saben.

  • Cómo nos cuelan anuncios pronazis en X. No, no paran de colárnosla. Tú estás tan tranquilo tratando de ver vídeos de la Revuelta o del Benidorm Fest, y lo mismo te sale un pene en TikTok que un anuncio pronazi en un tuit. Usuarios alertaron de un anuncio que defendía a Hitler y otro con un cartel de propaganda que en los años cuarenta usaba el partido pronazi noruego Nasjonal Samling. A pesar de que X dice contar con un proceso de aprobación de los anuncios para asegurar que cumplan con las normas, estos contenidos circularon en la red social infringiendo las políticas que prohíben contenidos que glorifican la violencia o promocionan grupos violentos.

  • Cómo nos cuelan anuncios de apps de IA para contenido sexual. En Instagram, Facebook y TikTok hay anuncios de apps para crear con IA contenidos que sexualizan a mujeres famosas sin su consentimiento (repito, sin su consentimiento), como vídeos besándose o imágenes que las desnudan o visten con ropa reveladora. Hemos detectado una campaña de 150 anuncios en Instagram y Facebook para una de estas apps. También en TikTok hay anuncios que contienen vídeos creados con IA de famosas besándose, aunque las políticas de anuncios de la plataforma prohíben usar la imagen de alguien sin su consentimiento. Por ahí siguen.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.