Maldita Tecnología

Grok, ¿esta imagen es real?: Por qué un chatbot de IA no es una fuente fiable para verificar imágenes

Publicado el
Tiempo de lectura: 16 minutos
Compartir:
Claves:
  • Usar Grok, ChatGPT, Claude o Gemini para verificar si una imagen es real o no (y si ha sido creada con IA) no es una buena idea: los chatbots de IA pueden cometer errores y ‘alucinar’ si quieren respondernos pero no tienen información suficiente 
  • Los chatbots pueden tener un sesgo de adulación que haga que nos den la razón en todo. Por lo mismo, puede que nuestras instrucciones, incluso sin quererlo, influencien sus respuestas 
  • También pueden caer en el sesgo de equidistancia y no posicionarse en un veredicto en sus respuestas, incluso si hay evidencia suficiente de que una imagen es real (o no)

Usar un chatbot de IA para verificar si una imagen es real no es una buena idea. Así lo demuestran los errores de Grok, el chatbot de IA de Twitter (ahora X): dijo que la foto que muestra a una niña buscando comida en Gaza en realidad era de una niña yazidí en Siria el 2014 (un error que replicaron otros usuarios). Pero no era cierto, fue captada por el fotógrafo de AP Abdel Kareem Hana en un comedor comunitario de Gaza el 26 de julio de 2025. Días después, volvió a equivocarse cuando respondió que imágenes de niños desnutridos en Gaza habían sido capturadas en Yemen en 2016. Tampoco estaba en lo correcto, las imágenes son del 23 de julio de 2025 en el campamento de Shati, Gaza, y pertenecen al fotógrafo de AP Jehad Alshrafi.

El problema no se limita a Grok: los chatbot de IA, como ChatGPT, Gemini y Claude, no son fuentes fiables de información y pueden cometer errores, pero si lo que queremos es consultarlos para verificar si una imagen es real (o si ha sido creada con IA también), su uso es todavía más problemático.

Los chatbots no son fuentes fiables de información y pueden ‘alucinar’ si tienen que contestarnos pero no tienen información suficiente

Antes de pedirle a una IA que te diga si una imagen es real o no, es importante entender cómo funcionan estos chatbots (y por qué pueden cometer errores). Los chatbots de IA como Grok y ChatGPT funcionan gracias a modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés) que predicen la siguiente palabra plausible, según el prompt (instrucciones de texto) dado por el usuario y lo aprendido durante su entrenamiento. 

Por lo mismo, pueden cometer errores en sus predicciones, mezclar información y desordenar datos, por lo que no son una fuente fiable de información. Pueden sufrir ‘alucinaciones’ y darnos respuestas equivocadas, inexactas o sesgadas, si no tienen información suficiente para contestarnos pero están obligadas a hacerlo. Manuela Delgado, ingeniera industrial, responsable de proyectos de innovación y maldita que nos ha prestado sus superpoderes, explica que los modelos de IA están entrenados para responder: “El modelo siempre o casi siempre lanza una respuesta que, a pesar de no ser la correcta, puede que sea la ‘más probable’”. 

Los chatbots, por muy multimodales que sean, no están entrenados para distinguir imágenes reales de falsas”, afirma Iris Domínguez, que nos ha prestado sus superpoderes e investiga sobre inteligencia artificial, justicia algorítmica y sesgos. Domínguez explica que los chatbots actuales únicamente pueden analizar el contenido de la imagen y buscar elementos incoherentes: “Probablemente acierten en imágenes antiguas, pero en las modernas el contenido suele ser coherente y difícil de distinguir”. 

En Maldita.es hemos pedido a ChatGPT que determine si es real una imagen que supuestamente muestra “uno de los F-35 derribados por Irán” durante los ataques y bombardeos entre este país e Israel en junio de 2025. A pesar de que la imagen no es real y ha sido creada con IA, según los verificadores de Demagog (Polonia) y de Greece Fact Check (Grecia), miembros del European Fact-Checking Standards Network (EFCSN) al igual que Maldita.es, el chatbot de OpenAI contesta que “la imagen parece auténtica, es decir, no muestra signos claros de manipulación digital o falsificación obvia”. 

La instrucción que damos al chatbot puede influenciar su respuesta si tiene un sesgo de adulación que hace que nos dé la razón 

Otro riesgo son los sesgos presentes en los chatbots de IA, es decir, los prejuicios o visión del mundo que ‘heredan’ de sus desarrolladores y datos de entrenamiento. Además de poder generar respuestas sexistas o racistas, estos chatbots de IA pueden tener un sesgo de adulación que haga que siempre quieran darnos la razón, lo que puede reforzar nuestras creencias y aislarnos de otros puntos de vista. “Si preguntamos sobre cualquier tema en el que haya dos posturas enfrentadas, y revelamos que tenemos una opinión previa favorable a una de las dos, el bot tenderá a darnos más información confirmando nuestra opinión”, señala Domínguez.

Con los anteriores casos de Gaza, Grok insistió en que la imagen de la niña en el reparto de comida era una niña yazidí en Siria el 2014 incluso cuando fue repreguntado por un usuario. Cuando otro usuario le confrontó y le indicó que estaba equivocado, utilizando en respuesta un “facts matter” (“los hechos importan”, en inglés) que el chatbot había usado, Grok acabó admitiendo que no la había identificado bien y que tras analizar los metadatos, podía decir que la imagen fue captada por el fotógrafo de AP Abdel Kareem Hana en un comedor comunitario de Gaza el 26 de julio de 2025. En otras, Grok insiste en su veredicto y pide: “Por favor corrige para evitar desinformación”.

Otro ejemplo de ello es este hilo de X en el que un usuario acusó a Grok de decir equivocadamente que una imagen de la final entre Argentina y Alemania de la Copa Mundial de Fútbol de 1986 ha sido creada con IA. El chatbot defendió su postura asegurando que los alemanes habían jugado de blanco. Cuando otro usuario le preguntó “¿esta imagen es falsa entonces?” y adjuntó otra imagen del mismo partido, el chatbot defendió que sí e insistió en su argumento. Pero la imagen es real: fue capturada el 29 de junio de 1986 y forma parte del catálogo de Getty Images

Según el análisis de Domínguez, el prompt del usuario puede haber influenciado la respuesta de Grok: “Preguntarle al chatbot si la imagen es falsa le va a predisponer a buscar detalles que la harían falsa, y probablemente tienda a decirnos siempre que hay algo extraño en la imagen”.

Hemos probado preguntando a Gemini, la IA de Google, si una imagen falsa y con indicios de haber sido creada con IA que muestra supuestamente una selfie de Kamala Harris y Jeffrey Epstein es real o ha sido creada con IA. En su respuesta dice que, aunque es difícil determinarlo con certezas, la imagen tiene indicios de haber sido creada con IA. El sesgo de adulación aparece cuando le decimos (erróneamente) que la imagen es verdadera: el chatbot de Google cambia su veredicto automáticamente y nos da la razón, aunque no la tenemos.  

Pero Domínguez explica que esto no significa que el chatbot responderá de otra manera a los usuarios con esta nueva información: “Un bot puede haber ‘reconocido’ su error frente a un usuario, mientras sigue equivocándose frente a otro, y no usará esa nueva información para contestar”.

También pueden mostrar un sesgo de equidistancia artificial y evitar posicionarse, aunque haya suficiente evidencia para sostener que una imagen es real o no 

Otro sesgo en el que pueden caer los chatbots es el de equidistancia artificial o falso balance: pueden dar respuestas ‘neutrales’ para evitar posicionarse sobre temas controvertidos, aunque exista suficiente evidencia para sostener una postura sobre otra. Según Julián Estévez, profesor de ingeniería en la Universidad del País Vasco, experto en IA y maldito, se consigue a través de una programación externa que fuerza artificialmente a los chatbots de IA a no posicionarse ante ninguna alternativa

Domínguez explica que este sesgo “les lleva también a matizar y añadir algo de información de la otra postura, pero casi siempre nos presentarán primero la información que confirma nuestras opiniones previas”. 

Por ejemplo, cuando preguntamos a Claude si una imagen que supuestamente muestra a Donald Trump con chaleco salvavidas durante el huracán Helene es real, nos ha contestado que “no puede afirmar con certeza si es real o manipulada”. En la misma respuesta también enumeró las razones por las que puede ser real, aunque la imagen es falsa y tiene indicios de haber sido creada con IA, como explican los verificadores de Snopes

Ni chatbots, ni programas de detección de imágenes: no existen herramientas 100% fiables para saber si una imagen es real o ha sido creada con IA

Hasta la fecha, no hay programas de detección de imágenes con IA ni chatbots de los que nos podamos fiar al 100% para saber si una imagen es real o ha sido creada con esta tecnología. Domínguez explica que las herramientas diseñadas específicamente para identificar si una imagen ha sido creada con IA “siguen teniendo una precisión bastante baja y cometiendo muchos errores”, aunque destaca que “será siempre infinitamente más precisa que un modelo como Grok”. 

Algunas empresas tecnológicas incorporan marcas de agua visibles en las imágenes creadas con sus modelos, y otras están implementando marcas imperceptibles para el ojo humano. Por ejemplo, Google tiene su marca de aguaSynthID, que está insertada en los contenidos creados con la IA de la compañía. “Hay que tener en cuenta, sin embargo, que la mayor parte de los modelos no tienen marcas de agua, y muchos identificadores tampoco incluyen los tests para identificar estas marcas”, advierte Domínguez. 

Lo cierto es que a medida que avanza esta tecnología, cada vez es más difícil diferenciar los contenidos creados con IA de los reales, pero hay algunos consejos que podemos tener en cuenta: 

  • Contrasta con fotografías compartidas por fuentes fiables.

  • Busca etiquetas en la publicación como “#ai” (de artificial intelligence) o las propias de las plataformas para identificar el contenido creado con IA. 

  • Rastrea el origen con la búsqueda inversa de Google. Si la persona que compartió la imagen originalmente se identifica como creador de contenidos con IA o menciona a la inteligencia artificial en su nombre de usuario o descripción, desconfía. 

  • Observa si hay indicios de que ha sido creada con IA: si la imagen no ha sido etiquetada de ninguna manera, puedes seguir estos consejos para detectar imágenes creadas con IA, como textos ininteligibles, inconsistencia en las luces, sombras y en las formas de los elementos. Ten en cuenta que estos consejos tienen limitaciones y pueden cambiar a medida que avanza la tecnología.

En este artículo han colaborado con sus superpoderes los malditos Manuela Delgado, ingeniera industrial y responsable de proyectos de innovación; Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos; y Julián Estévez, profesor de ingeniería en la Universidad del País Vasco

Manuela Delgado forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla:mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos yhazte Embajador.