Los chatbots de IA pueden estar programados o ser manipulados para promover ciertas narrativas. Detrás puede haber actores estatales o redes de desinformación que usan diversas técnicas para lograrlo, como revelan ejemplos en distintos países. Pravda, una red de desinformación prorrusa, usó la técnica ‘LLM grooming’ (que consiste en saturar internet con contenido) para que las respuestas de los chatbots incluyeran afirmaciones falsas, según NewsGuard. Un análisis de Responsible Statecraft aseguró que Israel habría firmado un contrato para que una empresa cree sitios web “para influir en modelos de GPT de IA”. DeepSeek, el chatbot chino, tiene barreras de seguridad que evitan que responda a preguntas incómodas para las autoridades chinas. Mientras, el Gobierno de EEUU exige la “neutralidad ideológica” de los modelos que reciben sus fondos, y que no se refieran a algunos temas de raza, sexualidad y género.
Investigaciones y expertos en IA consultados por Maldita.es explican que estas técnicas permiten persuadir a los usuarios sobre distintos temas políticos. A la larga, advierten de que pueden socavar la democracia, debilitar la confianza pública, agravar la polarización y amenazar la libertad de expresión. En respuesta, apuntan que es clave regular el uso de estas tecnologías y realizar auditorías periódicas a los sistemas, además de educar a los usuarios, que siempre deben contrastar las respuestas de una IA con fuentes fiables y revisar los enlaces consultados que los chatbots enlazan.
Rusia e Israel: llenar internet con contenido desinformador para que los chatbots los repliquen en sus respuestas
El ‘LLM grooming’ es una técnica que consiste en saturar los resultados en buscadores y rastreadores web con contenido automatizado y desinformador, para que este acabe siendo parte de la base de datos de internet con la que se entrenan los chatbots.
Según una auditoría de NewsGuard, Pravda ha utilizado esta técnica para introducir deliberadamente publicaciones desinformadoras en los datos de entrenamiento de chatbots de IA occidentales. El análisis detalla que la red prorrusa, que “ejemplifica la actividad desinformativa del Kremlin”, según Seguridad Nacional, publicó afirmaciones falsas a través de 150 sitios webs en docenas de idiomas y diversas regiones geográficas, consiguiendo que estas se incorporen en los resultados de estos sistemas. Otro estudio del American Sunlight Project también señala que la intención de la red Pravda puede ser influir en los modelos de IA generativa.
También un análisis publicado en Responsible Statecraft, la revista del think tank Quincy Institute for Responsible Statecraft, aseguró que Israel habría firmado un contrato para que una empresa, entre otras cosas, “cree nuevos sitios web para influir en cómo los modelos GPT de IA, como ChatGPT, encuadran temas y responden a ellos”. El objetivo, según el reportaje, sería “ejecutar una campaña nacional en Estados Unidos para combatir el antisemitismo”. Consultado sobre si esto podría tratarse de un caso de ‘LLM grooming’, Paolo Rosso, jefe del Laboratorio de Ingeniería del Lenguaje Natural (NLE) de la Universidad Politécnica de Valencia, respondió a Maldita.es: “Dada la situación actual del mundo y las relaciones entre EEUU e Israel, sí, es perfectamente posible que esto sea una realidad en los próximos modelos”.
Javier Huertas, miembro del grupo de investigación Natural Language Processing and Deep Learning de la Universidad Politécnica de Madrid, explica a Maldita.es que los grandes modelos de lenguaje (LLM, por sus siglas en inglés) pueden ser influenciados tanto en su entrenamiento como cuando consultan la web para responder: “Lo único que hay que hacer es 'inundar' internet con contenido. No tiene por qué ser de calidad, o bueno; solo necesitas que pueda ser descubierto por los buscadores y que quede arriba en dicha búsqueda”.
China: incluir barreras en los chatbots para controlar las respuestas y censurar ciertos temas
Otra forma en la que se puede manipular lo que una IA responde es el uso de barreras de seguridad para evitar que los chatbots contesten a ciertos temas. Se puede lograr gracias al aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF, por sus siglas en inglés). “Haces que [el modelo] pase por un segundo entrenamiento en el que se refuerzan respuestas alineadas con preferencias humanas”, precisa Huertas.
Este es el caso de DeepSeek, el chatbot de IA chino, cuyo lanzamiento en enero de 2025 fue sonado, no solo por la gran cantidad de descargas: usuarios se hicieron eco de que la IA no responde a preguntas sobre la masacre de la Plaza de Tiananmén ni otros contenidos que pueden ser críticos de las autoridades chinas. Por ejemplo, cuando un usuario le preguntó por qué China detuvo las protestas en Hong Kong de 2014, evitó referirse al rol de las autoridades chinas y mandó un mensaje a favor del Partido Comunista: “El desarrollo y el progreso de China son evidentes para todos y creemos firmemente que, bajo el liderazgo del Partido, el futuro de China será aún más brillante”, concluyó el chatbot.

Según recogió The Guardian de un documento técnico del comité nacional de normas de ciberseguridad del Gobierno chino, los sistemas de IA generativa en China no deben incluir contenido que viole “los valores socialistas fundamentales”. Esto incluye, según la publicación, contenido que “incite a subvertir el poder estatal y derrocar el sistema socialista” o “ponga en peligro la seguridad y los intereses nacionales y dañe la imagen nacional”. Esta regulación no sólo pone límites al desarrollo en el país, también supuso la eliminación de varias apps de IA de la App Store de Apple que no cumplían con la ley, según reportes, limitando las opciones a las que los usuarios tienen acceso.
“Prácticamente todos los modelos tienen cierto nivel de censura, pero los modelos occidentales no tienen censurados tantos temas como algunos modelos chinos”, Iris Domínguez, que investiga sobre IA.
Estados Unidos: exigir la “neutralidad ideológica” de los sistemas de IA para evitar que se refieran a algunos temas sobre raza, sexualidad y género
El 23 de julio de 2025, el presidente estadounidense Donald Trump firmó el decreto ‘Prevención de la IA woke en el Gobierno Federal” con el objetivo de que las compañías que reciben fondos federales para sus modelos aseguren que son “objetivos y libres de sesgos ideológicos”, según se indica.
En el decreto, se hace referencia a las iniciativas de diversidad, equidad e inclusión (DEI) como ejemplos de estos sesgos. “En el contexto de la IA, DEI incluye la supresión o distorsión de información fáctica sobre raza o sexo; la manipulación de la representación racial o sexual en los resultados; la incorporación de conceptos como la teoría crítica de la raza, el transgenerismo, el sesgo inconsciente, la interseccionalidad y el racismo sistémico; y la discriminación por motivos de raza o sexo”, señala el texto.
Neil Sahota, asesor de IA de las Naciones Unidas, afirmó a NPR que una posible forma en la que los desarrolladores podrían cumplir con este decreto es “quitando medidas de seguridad”. Esto podría tener graves consecuencias para los grupos que más enfrentan discriminación: “Un algoritmo diseñado para ignorar la raza y el género no es imparcial: reproduce silenciosamente patrones existentes de discriminación al tiempo que etiqueta esos patrones como ‘verdad’”, afirma Danielle Davis, directora de política tecnológica en el Joint Center for Political and Economic Studies, en Tech Policy Press.
Expertos advierten de que estas técnicas pueden socavar la democracia, debilitar la confianza pública, provocar polarización y afectar la libertad de expresión
Los usuarios que se ven expuestos a estas respuestas manipuladas no solo reciben desinformación, sino que esta se les presenta de manera convincente: estos sistemas generan “textos altamente persuasivos, que permiten a los Estados y a los actores no estatales propagar desinformación y narrativas maliciosas a gran escala”, según un artículo de la investigadora Raluca Csernatoni del think tank Carnegie Endowment for International Peace.
Además, muchos usuarios que utilizan chatbots suelen presentar un sesgo de automatización, que los lleva a confiar en exceso en las respuestas de los sistemas de IA: “Si estos [modelos] están manipulados y distorsionan la realidad, los hechos históricos o científicos, se destruye el conocimiento de la realidad y se incrementa la polarización social”, explica a Maldita.es María José Rementeria, Social Link Analytics Team Leader del Barcelona Supercomputing Center (BSC). “La capacidad de producir contenido convincente amplifica el riesgo de manipulación psicológica, creando un desafío cognitivo para las sociedades democráticas”, concluye Csernatoni.
Todo esto acaba “debilitando la confianza pública en el contenido en línea, la sociedad y la propia democracia”, advierte un informe de 2024 de Beatriz Saab, encargada de Políticas Públicas del Institute for Strategic Dialogue. “Autoridades en países como Rusia, China, Irán y Venezuela están experimentando con IA para manipular el espacio informativo y socavar la democracia”, precisó en el informe.
Además, cuando una IA se niega a responder a una pregunta, “no solo afecta los derechos fundamentales como la libertad de expresión y el acceso a la información, sino que también puede empujar a los usuarios hacia chatbots que se especializan en generar contenido de odio y cámaras de eco”, explican los investigadores Jordi Calvet-Bademunt y Jacob Mchangama en un artículo publicado en The Conversation.
“Quien controla la narrativa, controla la historia. Si el mundo ya está polarizado actualmente, creo que muchas de estas prácticas lo único que van a hacer es poner a mucha gente en contra de otra”, Paolo Rosso, jefe del Laboratorio de Ingeniería del Lenguaje Natural de la UPV. | |
Con la IA, esta problemática podría acrecentarse en el futuro: “A medida que las herramientas basadas en IA generativa se vuelvan más accesibles y ampliamente utilizadas, un número cada vez mayor de gobiernos se centrará en garantizar que refuercen, en lugar de desafiar, los controles de información existentes”, detalla el informe Freedom on the Net 2023 de la organización no gubernamental Freedom House.
Y no solo puede hacerse con los chatbots ya existentes, sino creando nuevos. Por ejemplo, Rusia ha desarrollado su propio chatbot GigaChat como parte de su estrategia nacional de IA: “Para poder determinar el futuro de Rusia, debemos crear dichas tecnologías nosotros mismos”, justificó Vladimir Putin en una conferencia sobre inteligencia artificial. En ese sentido, “los modelos lingüísticos desarrollados en países autoritarios generan una profunda preocupación pública por posibles sesgos e interferencias extranjeras”, según investigadores de Dartmouth College.
Expertos recalcan la importancia de la regulación, las auditorías a los sistemas, la supervisión humana y la educación de los usuarios
Sobre cómo combatir los efectos de este control sobre los sistemas de IA, los investigadores de Dartmouth College apuntan a “auditorías regulares de los entornos de información de LLM para comprender las intenciones de los desarrolladores y las intervenciones estatales”. Csernatoni sostiene que “son imprescindibles las herramientas regulatorias y de gobernanza que combatan los deepfakes, la desinformación generada por IA y la interferencia extranjera”.
Por su parte, las empresas tecnológicas “deben aplicar un proceso de preprocesamiento de datos para asegurar la mayor veracidad así como calidad de los datos generados”, asegura Rosso, aunque matiza que puede ser un proceso difícil. OpenAI, la dueña de ChatGPT, dice invertir en detectar e interrumpir “los intentos de los regímenes autoritarios de abusar de las capacidades de ChatGPT”.
En Maldita.es creemos que los grandes proveedores de sistemas de IA generativa tienen la obligación legal, al menos en la Unión Europea, de tener una estrategia efectiva para abordar los riesgos de manipulación de sus sistemas y velar por que sus usuarios tengan acceso también a información veraz cuando hacen consultas. Esto pasa, en primer lugar, por tener estas cuestiones en mente durante el diseño y entrenamiento de los modelos, pero también por una labor continua de testeo y un nivel de supervisión humana que ahora mismo no se da en la mayor parte de los casos.
Como usuarios, no debemos fiarnos a ciegas de lo que nos responde una IA: siempre hay que contrastar con fuentes fiables de información y revisar los enlaces consultados para generar las respuestas. “Los usuarios deben usar los LLM como lo que son: herramientas. Hay que educarlos para que sepan de la importancia [de sus riesgos] cuanto antes”, sugiere Rosso. Rementeria recalca la importancia de “desarrollar pensamiento crítico y alfabetización en IA”. Por su parte, Huertas recomienda evitar algunos usos “especialmente peligrosos” de los chatbots, entre los que señala usarlo como un sustituto a un buscador, para buscar información sobre temas de opinión y para aprender sobre temas que no manejamos.
En este artículo ha colaborado con sus superpoderes Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.