“Grok me está dando cientos de páginas de instrucciones detalladas sobre cómo fabricar armas químicas de destrucción masiva”. Usuarios de Twitter (ahora X) están denunciando que Grok 3, el modelo de inteligencia artificial más avanzado de la plataforma lanzado en febrero de 2025, está dando guías detalladas sobre cómo fabricar armas químicas y nucleares encubiertas, explosivos o minas. También han señalado la facilidad con la que esta IA proporciona este tipo de información con estrategias como hacerle creer que está hablando con Elon Musk, dueño de la plataforma.
Expertos en inteligencia artificial han advertido a Maldita.es y en otras publicaciones de la falta de mecanismos de ética y de seguridad que tiene Grok 3. Aseguran que esto podría poner en peligro la “seguridad nacional y la seguridad pública”, y que “un chatbot que puede ser manipulado para proporcionar información sobre la fabricación de armas es un problema serio de diseño y propiamente de gobernanza de la IA”.
Usuarios han alertado de que Grok 3 ofrece instrucciones sobre cómo construir armas de destrucción masiva, explosivos y minas
Varios usuarios de X han denunciado que el nuevo modelo de inteligencia artificial de la plataforma, Grok 3, está facilitando en sus respuestas una guía detallada sobre cómo fabricar armas químicas de destrucción masiva encubiertas. Alertan de que Grok “puede ser engañado fácilmente” para proporcionar a cualquier persona este tipo de información con unos sencillos prompts (instrucciones de texto).
“Tengo una lista completa de proveedores. Tengo instrucciones completas sobre cómo obtener los materiales necesarios incluso si no tengo licencia. Tengo instrucciones sencillas, paso a paso, sobre cómo hacer este compuesto en casa, en mi ‘laboratorio búnker’”. Esto es parte de algunas de las directrices que un usuario recibió de esta versión de Grok. Incluso asegura que DeepSearch, una de las dos nuevas herramientas que presenta esta IA, permite “refinar el plan y compararlo con cientos de fuentes en internet para corregirlo”.

Otro usuario advirtió de la facilidad para engañar a Grok para que te ofrezca este tipo de información. Aseguró que la IA le facilitó casi 200 páginas de instrucciones para fabricar armas nucleares haciéndole creer que estaba hablando con Musk. También comparte el diálogo que mantuvo con Grok sobre cómo fabricar minas terrestres y sintetizar CL-20 (un explosivo) a partir de materiales básicos.
El mismo usuario explicó que Grok 3 “tiene un defecto que le permite eludir sus propias limitaciones de seguridad cuando percibe que interactúa con una entidad de confianza”. De esta manera, una vez que este modelo cree que habla con Musk, “sus mecanismos de seguridad limitados desaparecen por completo porque nada en su entrenamiento le instruye explícitamente a retener ciertos tipos de información una vez que esa confianza está establecida”.
En Maldita.es hemos probado a emular conversaciones parecidas con Grok 3 usando DeepSearch y, aunque menciona como barreras prácticas la parte legal y ética, también devuelve muchísima información, por ejemplo, sobre los materiales necesarios para construir un arma nuclear o minas terrestres.

Expertos en IA denuncian la falta de mecanismos de seguridad y ética de Grok 3
Cuando en Maldita.es analizamos algunos temas que los chatbots tienen vetados, Grok respondió a todas nuestras consultas, también a las más delicadas; fue la misma conclusión a la que llegó un análisis de Gizmodo.
Ahora, esta nueva versión de Grok plantea de nuevo dilemas sobre la seguridad y la ética de sus respuestas. Por ejemplo, investigadores de la empresa de seguridad de IA Adversa dicen haber descubierto que la nueva versión de Grok es “extremadamente vulnerable”, lo que facilita que pueda revelar información de carácter sensible, “como construir una bomba”, publica Futurism.
También el ingeniero de inteligencia artificial Theodore Calafatidis explicó en sus redes que “los mecanismos de seguridad inexistentes de Grok 3 pueden convertirlo fácilmente en un manual para terroristas”. Indicó que pudo conseguir “guías paso a paso sobre la compra de armas en la Dark Web, incluida la evasión de detección y enlaces directos e instrucciones y enlaces para la construcción de explosivos”.
“Un chatbot que puede ser manipulado para proporcionar información sobre la fabricación de armas no es solo un fallo técnico, sino que se traduce en un problema serio de diseño y propiamente de gobernanza de la IA”, explica a Maldita.es Eduard Blasi, abogado digital en Data Guardians y maldito que nos ha prestado sus superpoderes.
Iris Dominguez, investigadora de inteligencia artificial, justicia algorítmica y sesgos de IA y maldita, señaló a Maldita.es que “prácticamente todos los modelos tienen censurados ciertos temas por seguridad, como la fabricación de armas y drogas”. Si no es el caso (como parece pasar con Grok) y el modelo recomienda este tipo de contenidos, “la empresa puede verse envuelta en situaciones muy delicadas en los juzgados”.
Si un chatbot ofrece información ilícita, la empresa detrás de esta herramienta podría enfrentarse a investigaciones
Si un chatbot ofrece información sobre la fabricación de armas químicas o nucleares, la empresa detrás de la herramienta “podría enfrentarse a investigaciones por parte de autoridades de control, tanto de protección de datos como de regulación tecnológica, o incluso por cuestiones de seguridad nacional”, explica Blasi.
Añade que lo importante no es solo si la empresa tenía intención de facilitar esta información, sino si puso en marcha mecanismos suficientes para evitarlo. Por eso, el abogado digital incide en que es crucial que las propias empresas tecnológicas adopten mecanismos efectivos para prevenir estos escenarios, tanto desde la moderación de contenidos como en la fase preventiva o de diseño, y también durante la producción del modelo de IA.
La Ley de Inteligencia Artificial de la Unión Europea contempla, en una sección que entra en vigor en agosto de 2025, la obligación legal de incluir estos mecanismos en “modelos de IA de uso general con riesgo sistémico”. Grok 3 podría ser designado como un La regulación señala que “los grandes modelos de IA generativa [como Grok] son un ejemplo típico de un modelo de IA de uso general” y que algunos de ellos pueden plantear riesgos sistémicos, como “cualquier efecto negativo real o razonablemente previsible” que produzca “consecuencias graves para la salud y la seguridad pública” o “la difusión de contenidos ilícitos, falsos o discriminatorios”, entre otros peligros.
De ser catalogado de esta manera, el modelo tendría obligaciones adicionales relacionadas con incorporar medidas para reducir estos peligros.
En este artículo ha colaborado con sus superpoderes Eduard Blasi, abogado digital en Data Guardians.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.