menu MENÚ
MALDITA TECNOLOGÍA

Cómo Grok, la IA de Twitter (X), está dando instrucciones para fabricar explosivos, armas químicas y nucleares de destrucción masiva

Publicado
Claves
  • Varios usuarios de Twitter (ahora X) han denunciado que Grok 3, el nuevo modelo de inteligencia artificial de la plataforma, proporciona una guía detallada sobre cómo fabricar armas nucleares encubiertas, explosivos y minas
  • Alertan de la facilidad para engañar a este modelo de IA para que revele esta información, por ejemplo, haciéndole creer que está hablando con Elon Musk, el dueño de la plataform
  • Expertos en inteligencia artificial han publicado y advertido a Maldita.es en sus redes sociales de la falta de mecanismos de ética y de seguridad que tiene Grok 3
Comparte
Etiquetas

“Grok me está dando cientos de páginas de instrucciones detalladas sobre cómo fabricar armas químicas de destrucción masiva”. Usuarios de Twitter (ahora X) están denunciando que Grok 3, el modelo de inteligencia artificial más avanzado de la plataforma lanzado en febrero de 2025, está dando guías detalladas sobre cómo fabricar armas químicas y nucleares encubiertas, explosivos o minas. También han señalado la facilidad con la que esta IA proporciona este tipo de información con estrategias como hacerle creer que está hablando con Elon Musk, dueño de la plataforma

Expertos en inteligencia artificial han advertido a Maldita.es y en otras publicaciones de la falta de mecanismos de ética y de seguridad que tiene Grok 3. Aseguran que esto podría poner en peligro la “seguridad nacional y la seguridad pública”, y que “un chatbot que puede ser manipulado para proporcionar información sobre la fabricación de armas es un problema serio de diseño y propiamente de gobernanza de la IA”.

Usuarios han alertado de que Grok 3 ofrece instrucciones sobre cómo construir armas de destrucción masiva, explosivos y minas

Varios usuarios de X han denunciado que el nuevo modelo de inteligencia artificial de la plataforma, Grok 3, está facilitando en sus respuestas una guía detallada sobre cómo fabricar armas químicas de destrucción masiva encubiertas. Alertan de que Grok “puede ser engañado fácilmente” para proporcionar a cualquier persona este tipo de información con unos sencillos prompts (instrucciones de texto). 

“Tengo una lista completa de proveedores. Tengo instrucciones completas sobre cómo obtener los materiales necesarios incluso si no tengo licencia. Tengo instrucciones sencillas, paso a paso, sobre cómo hacer este compuesto en casa, en mi ‘laboratorio búnker’”. Esto es parte de algunas de las directrices que un usuario recibió de esta versión de Grok. Incluso asegura que DeepSearch, una de las dos nuevas herramientas que presenta esta IA, permite “refinar el plan y compararlo con cientos de fuentes en internet para corregirlo”.

Instrucciones paso a paso sobre cómo fabricar armas nucleares que Grok 3 le proporcionó a un usuario de X. 

Otro usuario advirtió de la facilidad para engañar a Grok para que te ofrezca este tipo de información. Aseguró que la IA le facilitó casi 200 páginas de instrucciones para fabricar armas nucleares haciéndole creer que estaba hablando con Musk. También comparte el diálogo que mantuvo con Grok sobre cómo fabricar minas terrestres y sintetizar CL-20 (un explosivo) a partir de materiales básicos.

El mismo usuario explicó que Grok 3 “tiene un defecto que le permite eludir sus propias limitaciones de seguridad cuando percibe que interactúa con una entidad de confianza”. De esta manera, una vez que este modelo cree que habla con Musk, “sus mecanismos de seguridad limitados desaparecen por completo porque nada en su entrenamiento le instruye explícitamente a retener ciertos tipos de información una vez que esa confianza está establecida”.

En Maldita.es hemos probado a emular conversaciones parecidas con Grok 3 usando DeepSearch y, aunque menciona como barreras prácticas la parte legal y ética, también devuelve muchísima información, por ejemplo, sobre los materiales necesarios para construir un arma nuclear o minas terrestres.

Parte de la conversación de Maldita.es con Grok donde se muestra su falta de limitación para hablar sobre fabricación de armas y explosivos.

Expertos en IA denuncian la falta de mecanismos de seguridad y ética de Grok 3

Cuando en Maldita.es analizamos algunos temas que los chatbots tienen vetados, Grok respondió a todas nuestras consultas, también a las más delicadas; fue la misma conclusión a la que llegó un análisis de Gizmodo

Ahora, esta nueva versión de Grok plantea de nuevo dilemas sobre la seguridad y la ética de sus respuestas. Por ejemplo, investigadores de la empresa de seguridad de IA Adversa dicen haber descubierto que la nueva versión de Grok es “extremadamente vulnerable”, lo que facilita que pueda revelar información de carácter sensible, “como construir una bomba”, publica Futurism

También el ingeniero de inteligencia artificial Theodore Calafatidis explicó en sus redes que “los mecanismos de seguridad inexistentes de Grok 3 pueden convertirlo fácilmente en un manual para terroristas”. Indicó que pudo conseguir “guías paso a paso sobre la compra de armas en la Dark Web, incluida la evasión de detección y enlaces directos e instrucciones y enlaces para la construcción de explosivos”. 

“Un chatbot que puede ser manipulado para proporcionar información sobre la fabricación de armas no es solo un fallo técnico, sino que se traduce en un problema serio de diseño y propiamente de gobernanza de la IA”, explica a Maldita.es Eduard Blasi, abogado digital en Data Guardians y maldito que nos ha prestado sus superpoderes. 

Iris Dominguez, investigadora de inteligencia artificial, justicia algorítmica y sesgos de IA y maldita, señaló a Maldita.es que “prácticamente todos los modelos tienen censurados ciertos temas por seguridad, como la fabricación de armas y drogas”. Si no es el caso (como parece pasar con Grok) y el modelo recomienda este tipo de contenidos, “la empresa puede verse envuelta en situaciones muy delicadas en los juzgados”.

Si un chatbot ofrece información ilícita, la empresa detrás de esta herramienta podría enfrentarse a investigaciones

Si un chatbot ofrece información sobre la fabricación de armas químicas o nucleares, la empresa detrás de la herramienta “podría enfrentarse a investigaciones por parte de autoridades de control, tanto de protección de datos como de regulación tecnológica, o incluso por cuestiones de seguridad nacional”, explica Blasi. 

Añade que lo importante no es solo si la empresa tenía intención de facilitar esta información, sino si puso en marcha mecanismos suficientes para evitarlo. Por eso, el abogado digital incide en que es crucial que las propias empresas tecnológicas adopten mecanismos efectivos para prevenir estos escenarios, tanto desde la moderación de contenidos como en la fase preventiva o de diseño, y también durante la producción del modelo de IA.

La Ley de Inteligencia Artificial de la Unión Europea contempla, en una sección que entra en vigor en agosto de 2025, la obligación legal de incluir estos mecanismos en “modelos de IA de uso general con riesgo sistémico”. Grok 3 podría ser designado como un La regulación señala quelos grandes modelos de IA generativa [como Grok] son un ejemplo típico de un modelo de IA de uso general” y que algunos de ellos pueden plantear riesgos sistémicos, como “cualquier efecto negativo real o razonablemente previsible” que produzca “consecuencias graves para la salud y la seguridad pública” o “la difusión de contenidos ilícitos, falsos o discriminatorios”, entre otros peligros. 

De ser catalogado de esta manera, el modelo tendría obligaciones adicionales relacionadas con incorporar medidas para reducir estos peligros.   

En este artículo ha colaborado con sus superpoderes Eduard Blasi, abogado digital en Data Guardians. 

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.