menu MENÚ
MALDITA TECNOLOGÍA

Cómo se ha usado en 2024 la inteligencia artificial para difundir bulos y desinformar

Publicado
Claves
  • En 2024 hemos desmentido imágenes generadas con IA que se han compartido como reales, como el papa Francisco de fiesta, Imane Khelif como un hombre, Katy Perry en la Met Gala y la torre Eiffel y el Museo del Louvre en llamas
  • La IA generativa también se ha usado para desinformar durante situaciones de emergencia, como la DANA en España y los huracanes Milton y Helene en EEUU, y en sus elecciones presidenciales, con imágenes a favor y en contra de Trump y Harris
  • Una de las novedades del año ha sido Grok, la IA de Twitter, que su dueño Elon Musk ha usado para apoyar narrativas desinformadoras y cuya falta de restricciones da rienda suelta a la desinformación
  • Se usan imágenes generadas con IA en Facebook para obtener ingresos y chatbots de IA para crear de forma masiva artículos falsos o imprecisos en granjas de contenido. Además, la falta de contexto e información sobre la propia inteligencia artificial también puede implicar desinformación
Comparte
Etiquetas

En 2022, la palabra del año para la Fundación del Español Urgente (FundéuRAE) fue inteligencia artificial; muchos apodaron a 2023 como el año de la IA, y en 2024 hemos seguido con los mismos titulares. Veremos qué depara el 2025, pero sí que cerramos el año sabiendo que, en España, nueve de cada 10 personas sabe qué es eso de la inteligencia artificial, y más del 80% cree que tiene riesgos, según la encuesta que hizo el Centro de Investigaciones Sociológicas (CIS).

Entre esos riesgos, uno es la desinformación. El 75,3% de los españoles respondió que lo que le preocupa mucho es que llegue un momento en el que no podamos distinguir si las imágenes o vídeos que vemos en internet son reales o no. En concreto, el 74,9% de los encuestados aludió a la manipulación de imágenes para crear contenido falso. En efecto, en Maldita.es hemos visto cómo en 2024 la IA se ha usado para desinformar y crear confusión, polarizar en escenarios políticos y aumentar el caos en situaciones críticas como catástrofes naturales. Aquí tienes un resumen de lo que hemos detectado y desmentido este año.

Imágenes creadas con IA que se comparten como reales y desinforman: el papa, Imane Khelif, Katy Perry, un pulpo gigante y la torre Eiffel y el Louvre en llamas

En 2023 ya tuvimos las imágenes generadas con IA virales del papa Francisco usando un abrigo de plumas y de Donald Trump huyendo de la policía. En 2024, las imágenes creadas con esta tecnología que se comparten como si fueran reales han seguido y en Maldita.es hemos desmentido muchos de estos bulos. Por ejemplo, el papa ha vuelto a protagonizar imágenes falsas en las que aparece de fiesta y bebiendo alcohol, con detalles que sugieren su creación con IA.

También circularon varias imágenes generadas con IA que mostraban a la boxeadora argelina Imane Khelif como un hombre para legitimar el bulo de que la Organización Mundial de Boxeo la había despojado de sus títulos. Durante los disturbios en el Reino Unido, detectamos una imagen falsa que mostraba a un grupo de policías arrodillados ante hombres musulmanes con indicios de haber sido creada con IA. También se compartieron otras imágenes falsas, como las de Katy Perry o Rihanna en la alfombra roja de la Met Gala, que también parecen creadas con esta tecnología. 

En 2024 circularon imágenes que mostraban incendios falsos, como las creadas con IA de la torre Eiffel envuelta en llamas o de la pirámide del Museo del Louvre. Entre otras cosas que no sucedieron, se difundió una supuesta imagen del eclipse solar total de abril desde Panamá hecha con IA (el fenómeno no era visible desde el país) e imágenes falsas de un supuesto pulpo giganteen una playa, que estaban también generadas con IA. Ya sabes que no es infalible descubrir a simple vista si una imagen está hecha con IA o no, pero aquí tienes algunos consejos que puedes seguir. Lo primero, siempre, es buscar de dónde sale.

IA para desinformar durante situaciones de emergencia: la DANA en España y los huracanes Milton y Helene en EEUU

No apareció un pulpo gigante en una playa ni se vió el eclipse solar total desde Panamá, pero 2024 sí estuvo marcado por catástrofes naturales que provocaron terribles pérdidas personales y materiales, y en las que hubo quien aprovechó para desinformar con IA. Y en un escenario de confusión como un desastre natural, en el que ya abunda la desinformación, la IA puede generar aún más ruido y caos. 

En España, con la DANA que afectó a distintas partes del país, circularon en redes sociales imágenes y vídeos creados con inteligencia artificial: vimos al presidente Pedro Sánchez cubierto de barro con un cartel con la frase “quien quiera ayuda, que la pida” y también un póster de un festival taurino hecho con IA. Pero la imagen más viral fue la de un bebé en brazos de un bombero que supuestamente habría sido “rescatado con vida en Catarroja”, pero que no era una imagen real. También sucedió lo contrario: ahora que sabemos que se puede usar IA para crear contenidos, hubo imágenes que confundieron a usuarios y nos hicieron pensar que eran hechas con IA, como la de los coches apilados en una calle, pero que sí eran reales.

También sucedió en EEUU con los huracanes que afectaron al país en 2024. Partidarios de Donald Trump viralizaron en redes sociales imágenes generadas con IA de supuestas víctimas del huracán Helene con mensajes críticos hacia el Gobierno demócrata, como de una niña llorando con un cachorro, y narrativas favorables a Trump, como de este con un chaleco salvavidas durante las inundaciones. No eran imágenes reales. Sobre los efectos del huracán Milton circularon publicaciones alarmantes, creadas con IA, que incluían desinformación (como los que aseguraban antes de tiempo que el huracán había tocado tierra) y que podían llevar a los ciudadanos a tomar decisiones equivocadas, entorpecer la gestión de riesgos naturales y poner en peligro a las personas, como nos explicaron los expertos consultados.

IA generativa en las elecciones presidenciales de EEUU: imágenes a favor de Donald Trump y contra Kamala Harris

Seguimos en Estados Unidos, porque durante los meses de campaña de las elecciones presidenciales del 5 de noviembre de 2024, en las que Donald Trump fue elegido presidente, este y sus seguidores compartieron todo tipo de imágenes creadas con IA para engrandecer su figura y perjudicar la candidatura contraria. No solo la que hemos visto ayudando a las víctimas del Huracán Helene, también vestido de militar, de forma amigable con personas negras o el movimiento ‘Swifties for Trump’.

El propio Trump compartió en repetidas ocasiones imágenes hechas con IA que lo representan como un héroe en su red social Truth Social y en Twitter (ahora X), como esta en la que aparece rodeado de gatos y patos en relación a la narrativa desinformadora que afirma que los inmigrantes “ilegales” haitianos se estaban comiendo las mascotas de Springfield. Sus detractores usaron imágenes manipuladas para vincularlo con Epstein o conspirar sobre el atentado que sufrió durante un mitin.

Por el lado de Kamala Harris, no se detectó que ella o su equipo compartieran contenido generado con IA. Pero sí circularon imágenes creadas con IA de la candidata demócrata que la sexualizaban o caricaturizaban su ideología para desacreditarla. Algunas se usaron para sostener que Harris fueuna “prostituta de lujo” o una “escort”, o que tuvo una relación sentimental con Epstein. Elon Musk, también usó la IA de su red social, Grok, paracrear y difundir imágenes de ella, como la que aparece vestida con un uniforme rojo con el símbolo comunista.

La IA de Twitter, Grok: cómo la ha usado Elon Musk y cómo se utiliza para generar imágenes que podrían desinformar

La Kamala Harris comunista es solo una de las cientos de imágenes que Elon Musk ha generado con Grok. Desde que se lanzó esta IA, la ha usado para generar y compartir imágenes falsas, vejatorias y proferir amenazas; también para desinformar e influir políticamente. En ocasiones se puede deducir que el contenido es falso, pero otras veces no. 

Por ejemplo, la usó para contribuir a la campaña desinformativa de los inmigrantes haitianos, citando un tuit en el que aparece una imagen falsa de Donald Trump abrazando a un pato y un gato. También para para proferir amenazas contra Alexandre de Moraes, juez del Tribunal Supremo de Brasil que prohibió la red social en el país después de que Musk se negara a cerrar cuentas desinformadoras. 

Que un megainfluencer como Musk comparta este tipo de contenidos amplifica y legitima el uso de la IA para la desinformación y el discurso de odio, como desarrollamos aquí. Y así lo han hecho otros usuarios: Grok se está usando para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas, y para crear imágenes racistas, xenófobas y asociadas al nazismo de deportistas famosos.

El modelo de IA generativo de Grok, gratuito, con resultados hiperrealistas y sin restricciones, da rienda suelta y aumenta las posibilidades de que se creen contenidos desinformadores o que, sacados de contexto y compartidos en esta red social y en otras plataformas digitales, puedan generar desinformación directamente sobre sucesos y sobre personas reales, como hemos visto que ha sucedido en otras ocasiones

Imágenes generadas con IA en Facebook para obtener ingresos, IA para crear contenidos de forma masiva y desinformación sobre la propia IA

Los anteriores son solo algunos ejemplos de todos los contenidos generados con IA que circulan en redes sociales e internet. Muchos tienen la intención de desinformar; otros no, pero también pueden acabar haciéndolo. Y hay otros que lo que buscan es generar ingresos. Es el caso de las imágenes creadas con IA que circulan en Facebook que muestran a niños sonrientes haciendo esculturas, animales entrañables o imágenes de Jesús hecho de gambas, abejas o tortilla francesa. Muchas veces se comparten con mensajes cursis o grandilocuentes que despistan sobre su origen falso y en las publicaciones abundan comentarios de usuarios que creen que estas imágenes son reales. El objetivo de estas páginas es conseguir interacciones, monetizar el contenido y redirigir a webs llenas de anuncios o productos falsos.

No todo es IA generativa de imágenes y vídeos. También hemos visto cómo han aumentado las granjas de contenidos, webs que publican artículos de baja calidad de forma masiva para llegar a más usuarios y generar ingresos publicitarios, y que en los últimos años han comenzado a usar chatbots de IA para crear ese contenido de forma rápida y barata. Con la IA pueden crear artículos en segundos, lo que les permite mantener un ritmo de publicación de cientos o miles de artículos al día y aumentar así su tráfico. Algunas de estas webs se disfrazan de medios de comunicación y comparten contenido falso o impreciso, lo que promueve la difusión de desinformación y la desconfianza en el periodismo (que ya hemos visto según datos de este año que va mermando).

Además de los bulos que se apoyan en imágenes generadas con IA o en cómo se usa la IA generativa para desinformar, en 2024 también hemos visto cómo la falta de contexto sobre esta tecnología y los titulares alarmistas (o demasiado tecnooptimistas) pueden crear confusión en las personas. Por eso, también hemos abordado temas como qué es la IA general (AGI) y si es posible desarrollar una inteligencia artificial que iguale o supere a la humana, y cómo puede afectar a los derechos fundamentales desarrollar esta tecnología sin límites ni regulación. También hemos explicado por qué (pese a todas las promesas que puedas escuchar por ahí) ChatGPT y otros chatbots de IA no son fuentes fiables de información, y por qué no debemos fiarnos de gráficos de intención de voto supuestamente creados con IA.

No tenemos una bola de cristal impulsada con inteligencia artificial, pero no nos hace falta para saber que en 2025 seguiremos viendo contenidos generados con IA que se usan para difundir bulos y desinformación sobre esta tecnología. Para estar informado, puedes leernos aquí, en Maldita Tecnología, y suscribirte a nuestra newsletter Tech en un clic. ¡Feliz 2025!

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.