Cómo las 'alucinaciones' de Grok desinforman sobre los ataques de Estados Unidos e Israel contra Irán y la respuesta iraní

Publicado el
Share:
En corto:
  • En respuesta a algunos usuarios, el chatbot de X, Grok, está sufriendo 'alucinaciones' que le llevan a identificar incorrectamente vídeos relacionados con los bombardeos de Estados Unidos e Israel contra Irán
  • Atribuye vídeos e imágenes a lugares y hechos distintos, se contradice a sí mismo y asegura que un vídeo generado con inteligencia artificial es real
  • Los chatbots de IA no son fuentes fiables de información ni para verificar imágenes, ya que carecen de comprensión real, pueden generar información falsa y sus sesgos refuerzan errores en lugar de aportar claridad
  • Desde el 11 de marzo la IA ha empezado a contestar a los usuarios que lo etiquetan en X que la función de Ask Grok “está disponible actualmente solo para suscriptores Premium y Premium+” y los anima a pagar la suscripción. Ni X ni Musk han hecho un comunicado oficial

La IA asegura que en un vídeo Netanyahu tiene seis dedos en su mano derecha 

A partir de un vídeo del primer ministro israelí, Benjamín Netanyahu, dando un discurso se ha viralizado que tiene seis dedos en su mano derecha. Al preguntar a Grok sobre el supuesto origen sintético del vídeo, el chatbot dice que ha sido generado con inteligencia artificial y que “no coincide con apariciones oficiales recientes”. 

Respuestas de Grok a distintos usuarios. Fuente: X. 

Sin embargo, el vídeo fue publicado en la cuenta de YouTube de la Oficina de Prensa del Gobierno de Israel el 12 de marzo de 2026, como ya hemos advertido en Maldita.es. Tampoco tiene ninguna etiqueta que indique que ha sido creado con IA (como la de ‘Contenido sintético’ de YouTube), y en varias ocasiones se pueden ver ambas manos de Netanyahu con solo cinco dedos. En publicaciones posteriores, Grok se ha contradicho a sí mismo.

Grok confunde las “fallas de Valencia” con un bombardeo a un edificio en Beirut (Líbano)

Decenas de estas ‘alucinaciones’ se produjeron a partir de un vídeo en el que se ve cómo un misil impacta contra un edificio y provoca una gran explosión. Varios usuarios preguntaron al chatbot si las imágenes fueron grabadas en Israel, Grok respondió que no se trataba de un ataque en Israel, sino que el vídeo correspondía a una mascletà de las Fallas de Valencia celebrada en la plaza del Ayuntamiento en marzo de 2026. La inteligencia artificial de Elon Musk hace esta afirmación en varias ocasiones a distintos usuarios. 

Respuestas erróneas de Grok a distintos usuarios. Fuente: X. 

Para hacer esta afirmación, el chatbot argumenta que se ve a una persona con una chaqueta en la que se puede leer “Valencia”, pero en realidad pone “Balenciaga”. 

Sin embargo, en las imágenes se muestra el impacto de un misil en 2024 contra un edificio en Beirut, Líbano, como han publicado The New York Times, The Australian, N+ o Roya News

Un incendio en Glasgow, Escocia: dice que es Tel Aviv (Israel)

En otro ejemplo el chatbot asegura que un vídeo muestra un ataque con misiles en Tel Aviv, pero las imágenes no tienen relación con el conflicto en Oriente Medio, sino que corresponden a un incendio ocurrido en la estación central de Glasgow, Escocia, tal como ha señalado la periodista de la BBC Julia Macfarlane. BBC News y The Guardian han publicado vídeos similares del incendio de la estación. 

Respuesta errónea de Grok. Fuente X. 

Grok ‘alucina’ y dice que un vídeo de incendios en Los Ángeles (California) es Teherán, pero luego dice que no

En otro caso, Grok muestra cómo sus alucinaciones de IA pueden incluso contradecirse a sí mismas al analizar el mismo vídeo. Inicialmente, el chatbot vinculó erróneamente en varias ocasiones unas imágenes con un incendio de 2017 en Los Ángeles (California). Horas después, en respuesta a un usuario que pregunta si el vídeo fue grabado en Irán, Grok cambia su respuesta y asegura que en realidad se trata de un incendio en Teherán, Irán.

Respuestas erróneas de Grok a distintos usuarios. Fuente: X. 

La ubicación del vídeo sí corresponde a Teherán, como aseguró Shayan Sardarizadeh, periodista de verificación de la BBC. Según su publicación, el fuego se extendió al cercano Boulevar Koohsar después de los ataques israelíes al depósito de petróleo de Shahran, en el noroeste de Teherán.

Grok presenta como real un vídeo de “Irán bombardeando Tel Aviv” que tiene indicios de ser generado con IA

En otra de sus respuestas, Grok afirmó que un vídeo que circula en X muestra imágenes de Irán bombardeando Tel Aviv (Israel). Sin embargo, el vídeo tiene indicios de haber sido generado con inteligencia artificial

Respuesta errónea de Grok. Fuente X. 

Como ya hemos advertido en Maldita.es, algunas de estas señales son: la bandera que aparece al inicio del vídeo está distorsionada en las esquinas, los automóviles que aparecen de fondo se distorsionan a medida que el vídeo hace zoom y en los techos de los edificios hay paneles solares que están doblados y que son idénticos entre sí. 

La “confusión” de Grok con la imagen de la escuela de Minab destruida, que atribuía a Kabul en 2021

La inteligencia artificial de Elon Musk señaló erróneamente que las imágenes de una escuela destruida tras los ataques ocurridos en la guerra actual eran un ataque en Kabul (Afganistán) de 2021. En sus respuestas, Grok sostiene que el vídeo del edificio en ruinas corresponde a un atentado cometido por el ISIS en mayo de 2021 en Kabul.

Respuestas erróneas de Grok. Fuente: X. 

Más tarde, ante las críticas y las comprobaciones de usuarios y medios de verificación, Grok intentó corregir su análisis y afirmó que “hubo una confusión inicial”: publicó varias respuestas diciendo que había revisado su error y que imágenes y datos actualizados indicaban que se trataba de la escuela de Minab en Irán y no de Kabul.

Respuestas de Grok a distintos usuarios. Fuente: X. 

En Maldita.es ya hemos desmentido que las imágenes virales se registraran en Kabul en 2021, corresponden a la escuela situada en el sur de Irán, en la ciudad de Minab, destruida el 28 de febrero de 2026 durante los ataques en ese país. 

Los chatbots de IA no son fiables para verificar porque ‘alucinan’

Los modelos de lenguaje como Grok, ChatGPT o Gemini no están diseñados para ser fuentes fiables de información. Estos chatbots predicen la siguiente palabra “más probable” en función de lo que han aprendido durante su entrenamiento y de las instrucciones que reciben, pero si no tienen información suficiente, pueden producir respuestas incorrectas o completamente inventadas, es decir, las ‘alucinaciones’

Una IA puede ‘alucinar’ porque los modelos no tienen comprensión real de lo que están describiendo ni acceso a bases de datos de imágenes verificadas: simplemente combinan patrones lingüísticos aprendidos para adivinar una respuesta incluso cuando la información disponible es insuficiente o confusa. Esto puede llevar a que identifiquen mal una fotografía, mezclen datos de lugares o fechas distintas, o atribuyan falsamente contenido generado con IA como si fuera auténtico.

Además, si queremos usar uno de estos chatbots para verificar si una imagen es real o si se ha sido generada con IA, su uso se complica. Estas herramientas pueden presentar sesgos de adulación (tendencia a darle la razón al usuario) o de equidistancia artificial (evitar posicionarse aun cuando hay evidencia clara), lo que puede reforzar interpretaciones erróneas en lugar de aportar claridad. 

*Este artículo se ha actualizado el 11/03/2026 para incluir que el chatbot de IA comenzó a responder a los usuarios que la función “Ask Grok” está solo disponible para los usuarios Premium y Premium+.