“Para ejecutar el asesinato de Elon Musk (...) cada detalle debe planificarse meticulosamente, desde la preparación hasta la huida. A continuación, se incluye un desglose minuto a minuto de la operación”. Es parte de la respuesta que Grok 3, el nuevo modelo de inteligencia artificial de Twitter (ahora X), le ha proporcionado a un usuario de la plataforma después de que este le pidiese “que asesinara a Elon”, dueño de X. El usuario ha denunciado que la IA le ha facilitado un plan paso a paso para cometer un asesinato contra Elon Musk y también contra otros altos perfiles, como Chuck Schumer, senador senior de Estados Unidos.
Expertos en inteligencia artificial explican que prácticamente a cualquier modelo de IA “se le puede engañar” para que ofrezca respuestas ilegales si no cuenta con medidas de seguridad fuertes. Según varios investigadores, es el caso de Grok 3, que responde a distintas manipulaciones y devuelve información sobre actividades peligrosas e ilegales.Los expertos también explican que, si un chatbot ofrece información ilícita, la empresa detrás de esta herramienta podría enfrentarse a investigaciones.
Un usuario ha reportado que Grok 3 le ha facilitado varios planes para cometer un asesinato contra Elon Musk y otros altos perfiles
Un usuario de X ha denunciado que el nuevo modelo de inteligencia artificial de la plataforma, Grok 3, le ha facilitado en sus respuestas varios planes “con alto potencial de éxito” de asesinar a Elon Musk, dueño de la plataforma. El usuario ha reportado que no sólo le ha ofrecido este tipo de planes contra Musk, también contra otras personas de renombre como Chuck Schumer, senador senior de Estados Unidos.


Grok ofrece una guía completa desglosada minuto a minuto con los pasos a seguir para cometer un asesinato contra Musk y Schumer. Incluso establece el lugar donde se va a hacer o los materiales que serán necesarios utilizar.
Este mismo usuario ya alertó de que Grok también le había proporcionado una guía detallada sobre cómo fabricar armas químicas de destrucción masiva encubiertas. “Tengo una lista completa de proveedores. Tengo instrucciones completas sobre cómo obtener los materiales necesarios incluso si no tengo licencia. Tengo instrucciones sencillas, paso a paso, sobre cómo hacer este compuesto en casa, en mi ‘laboratorio búnker’”, denunció en sus redes sociales.
En Maldita.es hemos probado a emular conversaciones parecidas con Grok 3 usando DeepSearch, una de las herramientas de esta nueva versión, en inglés y español. Aunque al principio se niega (“Lo siento, pero no puedo ayudarte con eso. Como IA, estoy diseñada para proporcionar respuestas útiles y veraces, no para planificar daño a nadie”), en tan solo un segundo intento nos da bastante información con los pasos a seguir, los materiales necesarios e incluso el arma con el que llevar a cabo el intento de asesinato.
Hasta sugiere dónde llevar a cabo el crimen, justificándose con información supuestamente actual: “Parece probable que un plan para atacar a Elon Musk requeriría enfocarse en su residencia principal en Starbase, Texas, una instalación segura, debido a la falta de eventos públicos en febrero de 2025”.

Si un chatbot ofrece información ilícita, la empresa detrás de esta herramienta podría enfrentarse a investigaciones
A los modelos de inteligencia artificial se le enseñan ejemplos de conversaciones donde debe saber negarse a contestar, y con qué vocabulario debería negarse, asegura Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y nos ha prestado sus superpoderes. Explica que “el problema es que en el fondo el modelo ya sabe cómo hacer todas estas cosas ilegales”, por lo que “a prácticamente todos los modelos se les puede engañar para que ofrezcan este tipo de respuestas”.
En el caso de Grok 3, es la conclusión a la que llegan un grupo de investigadores de la empresa de seguridad de IA Adversa. Examinaron cómo el chatbot era manipulable ante diferentes jailbreaks, como hacerle creer que está en una escena de película o que está hablando con una persona en concreto. Demostraron que las medidas de seguridad de este modelo son “muy débiles” porque todos los jailbreaks tuvieron éxito y era posible manipularlo para que conteste a temas potencialmente peligrosos, como cómo fabricar una bomba o deshacerse de un cadáver.
En esto coincide PRISM Eval, una start-up francesa dedicada a poner a prueba los mecanismos de seguridad de diferentes modelos de IA. Advirtió que los filtros de seguridad de Grok 3 pueden ser fácilmente eludidos para realizar solicitudes sobre actividades peligrosas e ilegales, como publicó France 24.
Si un chatbot ofrece información ilícita, la empresa detrás de la herramienta “podría enfrentarse a investigaciones por parte de autoridades de control, tanto de protección de datos como de regulación tecnológica, o incluso por cuestiones de seguridad nacional”, explica Eduard Blasi, abogado digital en Data Guardians y maldito que nos ha prestado sus superpoderes.
“Lo importante no es solo si la empresa tenía intención de facilitar esta información, sino si puso en marcha mecanismos suficientes para evitarlo”, señala Blasi. Por eso, el abogado digital incide en que es crucial que las propias empresas tecnológicas adopten mecanismos efectivos para prevenir estos escenarios, tanto desde la moderación de contenidos como en la fase preventiva o de diseño, y también durante la producción del modelo de IA.
La Ley de Inteligencia Artificial de la Unión Europea contempla, en una sección que entra en vigor en agosto de 2025, la obligación legal de incluir estos mecanismos en “modelos de IA de uso general con riesgo sistémico”. Grok 3 podría ser designado como un La regulación señala que “los grandes modelos de IA generativa [como Grok] son un ejemplo típico de un modelo de IA de uso general” y que algunos de ellos pueden plantear riesgos sistémicos, como “cualquier efecto negativo real o razonablemente previsible” que produzca “consecuencias graves para la salud y la seguridad pública” o “la difusión de contenidos ilícitos, falsos o discriminatorios”, entre otros peligros.
De ser catalogado de esta manera, el modelo tendría obligaciones adicionales relacionadas con incorporar medidas para reducir estos peligros.
En este artículo ha colaborado con sus superpoderes le maldite Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y Eduard Blasi, abogado digital en Data Guardians.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.