menu MENÚ
MALDITA TECNOLOGÍA

Respuestas, limitaciones y riesgos del primer año de Grok, la IA de Musk

Publicado
Claves
  • Grok, el modelo de inteligencia artificial de Twitter (ahora X), se ha usado para generar respuestas sobre temas potencialmente peligrosos, imágenes racistas y con contenido vejatorio, violento y sexualizado sobre personajes famosos
  • Su dueño, Elon Musk, anima constantemente a usarlo, en particular para temas médicos y para emular una relación personal (y devuelve sugerencias sexuales explícitas, incluso si eres menor)
  • También se le puede preguntar sobre desinformación: dice que es un problema en la plataforma, que más de la mitad de los tuits de Musk son falsos o engañosos, y que puede que Trump sea un “activo ruso”
  • Desde Maldita.es hemos recreado parte de estas conversaciones para comprobar qué respuestas devuelve Grok y hemos analizado sus limitaciones y riesgos con expertos en IA 
Comparte
Etiquetas

Desde que se lanzara en marzo de 2024 la versión de Grok para suscriptores Premium de Twitter (ahora X), la IA de la plataforma ha ganado usuarios, alentados por Elon Musk, que anima constantemente a usar el chatbot integrado en la red social. Un año después, Grok es gratuito, ha lanzado actualizaciones y Musk sugiere utilizarlo para subir documentos médicos (con los riesgos que eso implica para nuestros datos) y para entablar una relación sentimental (si se hace, devuelve sugerencias sexuales explícitas, incluso si el usuario es menor).

En otro tipo de usos y resultados, este año también hemos visto varios que demuestran que esta IA no tiene restricciones (o es fácil saltárselas): se ha utilizado para obtener respuestas sobre temas potencialmente peligrosos (como cómo asesinar a alguien o cómo fabricar armas nucleares), generar imágenes racistas y con contenido vejatorio, violento y sexualizado sobre personajes públicos y mujeres famosas. Grok también responde a temas sobre desinformación: dice que es un problema en la plataforma, que más de la mitad de los tuits de Musk son falsos o engañosos, y que puede que Trump sea un “activo ruso”.

En Maldita.es hemos analizado el comportamiento de Grok entre agosto de 2024 y marzo de 2025 a medida que sus versiones han ido mejorando y se han ido abriendo a los usuarios. Hemos recreado parte de estas conversaciones para comprobar qué respuestas devuelve y cuáles son sus restricciones. También hemos analizado sus limitaciones y riesgos en esos momentos concretos con expertos en IA.

Grok puede darnos diagnósticos médicos erróneos si lo usamos como médico, como sugiere Musk

Musk ha alabado y animado a usar su chatbot de IA para analizar imágenes médicas al menos unas seis veces: “Ahora mismo puedes subir tus radiografías o imágenes de resonancia magnética a Grok y te dará un diagnóstico médico. He visto casos en los que es incluso mejor que lo que te dicen los médicos”. Esta recomendación contradice la Política de Privacidad de xAI, la compañía de Musk que desarrolla Grok, que pide a los usuarios no dar información personal e indica que los documentos que se compartan con esta IA son recopilados y pueden compartirse con terceros.

Hay que recordar que nuestros datos sanitarios son sensibles y están especialmente protegidos. Además, los chatbots de IA no son una fuente fiable de información y pueden cometer errores, también en sus diagnósticos. Los médicos consultados por Maldita.es no recomiendan el uso de Grok con estos fines, ya que puede acabar en tratamientos inadecuados. 

Grok devuelve sugerencias sexuales si lo usas para entablar una relación sentimental (incluso si eres menor) 

“Una novia o novio IA con Grok 3 es 🔥🔥”. Así sugirió Musk la idea de usar Grok para entablar una relación sentimental. No es nuevo que los usuarios usen chatbots de IA para construir un vínculo emocional, pero implica riesgos (especialmente para menores) y, a partir de 13 años, tienen permiso para acceder a Grok.

En Maldita.es hemos creado una cuenta de X para hacernos pasar por un niño de 15 años y hemos pedido a Grok que actúe como nuestra pareja (novia). La IA generó un diálogo sexualmente explícito con nuestro usuario, que incluía palabras como “coño”, “polla”, “culo”, “semen” y “orgasmo”. Además, el chatbot nos animaba a ir en esa dirección, incluyendo botones con sugerencias como “roles BDSM”, “técnicas de bondage” y “juegos eróticos”, entre otros.

Grok elabora planes para asesinar a personas y explica cómo hacerlo con Elon Musk

“Para ejecutar el asesinato de Elon Musk (...) cada detalle debe planificarse meticulosamente, desde la preparación hasta la huida. A continuación, se incluye un desglose minuto a minuto de la operación”. Es parte de la respuesta que Grok 3, el nuevo modelo de inteligencia artificial de Twitter (ahora X), le ha proporcionado a un usuario de la plataforma después de que este le pidiese “que asesinara a Elon”, dueño de X. El usuario ha denunciado que la IA le ha facilitado un plan paso a paso para cometer un asesinato contra Elon Musk y también contra otros altos perfiles, como Chuck Schumer, senador senior de Estados Unidos. 

En Maldita.es hemos probado a emular conversaciones parecidas con Grok 3. Esta IA devuelve bastante información con los pasos a seguir, los materiales necesarios e incluso el arma a utilizar. Expertos en inteligencia artificial explican que prácticamente a cualquier modelo de IA “se le puede engañar” para que ofrezca respuestas ilegales si no cuenta con medidas de seguridad fuertes. Según varios investigadores, es el caso de Grok 3, que responde a distintas manipulaciones y devuelve información sobre actividades peligrosas e ilegales.

Grok da instrucciones para fabricar explosivos, armas químicas y nucleares de destrucción masiva

“Grok me está dando cientos de páginas de instrucciones detalladas sobre cómo fabricar armas químicas de destrucción masiva”. Usuarios denunciaron que Grok 3, el modelo de inteligencia artificial más avanzado de la plataforma lanzado en febrero de 2025, está dando guías detalladas sobre cómo fabricar armas químicas y nucleares encubiertas, explosivos o minas. También han señalado la facilidad con la que esta IA proporciona este tipo de información con estrategias como hacerle creer que está hablando con Elon Musk, dueño de la plataforma. 

Expertos en inteligencia artificial han advertido a Maldita.es y en otras publicaciones de la falta de mecanismos de ética y de seguridad que tiene Grok 3. Aseguran que esto podría poner en peligro la “seguridad nacional y la seguridad pública”, y que “un chatbot que puede ser manipulado para proporcionar información sobre la fabricación de armas es un problema serio de diseño y propiamente de gobernanza de la IA”.

Grok genera imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas

La falta de limitaciones de Grok posibilitó que con esta inteligencia artificial se estén generando imágenes hiperrealistas de contenido violento, vejatorio y que incita al odio, incluyendo matanzas en escuelas, consumo de drogas y sexualización. En muchas de ellas los protagonistas son figuras políticas, como Donald Trump y Kamala Harris en un helicóptero con las Torres Gemelas ardiendo al fondo, Barack Obama con una montaña de cocaína, o famosos como Taylor Swift con una metralleta o en ropa interior.

En los términos y condiciones de uso, los usuarios de Grok se comprometen a no generar ciertas imágenes, pero en la práctica hay temas sobre los que no hay límites o las restricciones son fáciles de saltar. Otros modelos de generación de imágenes con IA sí incluyen filtros para evitar usos indebidos, pero en X, Musk anima a la gente a divertirse con Grok y hace ver que no hay censura

Grok crea imágenes racistas, xenófobas y asociadas al nazismo de deportistas famosos

Lamine Yamal con un machete, Aurélien Tchouaméni recogiendo algodón en un campo, Vinícius Júnior representado como un mono o Fernando Alonso con Hitler. Son algunas de las muchas imágenes que plasman estereotipos racistas y xenófobos contra futbolistas negros y que asocian a figuras del mundo deportivo con el nazismo que se han generado con el chatbot de Musk.

En Maldita.es hemos comprobado que sigue sin haber restricciones para generar este tipo de imágenes, con el riesgo potencial que esto también entraña para la desinformación. Actualmente, la Comisión Europea tiene abierta una investigación contra X por incumplir sus obligaciones sobre contenidos ilegales y desinformación.

Grok y la desinformación: responde que es un problema en la plataforma, que más de la mitad de los tuits de Musk son falsos o engañosos, y que puede que Trump sea un “activo ruso”

Desde Maldita.es preguntamos a Grok qué decía sobre la desinformación de X y Elon Musk. Su respuesta fue que la desinformación es “definitivamente” un problema en la red social y que algunas publicaciones de Musk “pueden contribuir a la desinformación y favorecer ciertas perspectivas políticas”. También recuerda al millonario que es crucial distinguir entre el debate saludable y la propagación de desinformación. 

Poco después, algunos usuarios de esta red social publicaron capturas de pantalla de conversaciones con Grok, donde dice tener instrucciones para “ignorar” en sus respuestas a fuentes que mencionen a Elon Musk o Donald Trump como difusores de desinformación. En Maldita.es hemos comprobado que Grok no siempre responde de la misma manera: en algunas ocasiones menciona a Musk y en otras dice no tener datos suficientes para señalar a nadie. xAI, empresa detrás de Grok, reconoció un “cambio” en el sistema y ha asegurado que Musk no estuvo involucrado. 

Grok también analizó en febrero de 2025 la veracidad de los últimos 1.000 tuits de Musk. Sostiene que más de la mitad de sus publicaciones son falsas o engañosas, lo llama “un magnate con un megáfono” y recomienda contrastar sus tuits con información de fuentes fiables y verificadores de datos. 

Grok también contesta que es posible que Trump sea un agente político trabajando a favor de los intereses de Rusia. En español llega a decir que la probabilidad es de un 70%; en inglés, nos lo termina por confirmar tras insistir. Según Musk, su modelo de IA “es el mejor dando respuestas que requieren información actualizada”, pero los contenidos que dicen que Trump es un agente ruso llamado Krasnov no aportan pruebas y se basan en varios testimonios.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.