El Informe Anual de Seguridad Nacional de 2024, recientemente publicado por el Gobierno de España, acusa al Kremlin de amplificar y adaptar “narrativas desinformativas preexistentes en su beneficio” tras el paso de la DANA por varias zonas del sur y este de España el pasado mes de octubre. En Maldita.es ya alertamos del bulo de la comitiva de Felipe VI. Este, como otros contenidos, se publicó en diferentes plataformas y en varios idiomas; y esto es porque los desinformadores rusos utilizan una serie de maniobras para desarrollar y amplificar sus campañas de desinformación y mensajes propagandísticos.
En muchas ocasiones, para llevarlas a cabo, se sirven de estrategias como la suplantación de grandes cabeceras, cadenas de televisión y periodistas, así como de la creación de páginas web con apariencia de medios de comunicación tradicionales para dar credibilidad a los contenidos que difunden. Vamos con algunos ejemplos de cada estrategia.
Así suplantan la identidad de grandes cabeceras y cadenas de televisión
Para amplificar sus contenidos, los desinformadores rusos se hacen pasar por medios de comunicación y para ello, se sirven de diferentes estrategias.
Una de ellas es la creación y difusión de portadas falsas. “70.000 soldados ucranianos en la región de Kursk murieron en vano”. Con este titular circuló una supuesta portada del diario británico Hull Daily Mail para la edición del pasado 13 de marzo de 2025. Lo difundieron varios perfiles en redes sociales y páginas web afines al Kremlin como Pravda, una red de propaganda y desinformación rusa que introdujo deliberadamente desinformación en los datos de entrenamiento de chatbots de IA occidentales para condicionar sus respuestas, según una auditoría de News Guard. En realidad, como explicaron los verificadores de Georgia, Myth Detector, era una portada falsa.
Ese mismo mes también se difundió una supuesta portada del diario francés Libération en la que se podía leer que marcas como Tesla, McDonald 's o Coca-Cola estaban “volviendo vergonzosamente al mercado ruso”. Esta tampoco era real, como señaló la cuenta de Twitter (ahora X) especializado en el análisis de operaciones de influencia relacionadas con Rusia Antibot4Navalny y ha podido comprobar Maldita.es. Este año también se han difundido varias falsas portadas de la revista satírica francesa Charlie Hebdo con Zelenski pidiendo dinero en nombre del papa o con el presidente de Ucrania en un ataúd.

Publicar vídeos con el logo de cadenas de televisión o cabeceras internacionales es otra de las estrategias más habituales para suplantar medios. Este 2025 se han viralizado varios de estos vídeos, como el que se hacía pasar por la televisión pública sudafricana (South African Broadcasting Corporation o SABC) diciendo que Zelenski había comprado el 51% de las acciones de una empresa minera de la zona o el que cogía la imagen del New York Post para afirmar que USAID pagó cuatro millones de dólares a la revista Time para nombrar “persona del año” al presidente de Ucrania. En ninguno de los dos casos se trataba de un vídeo real.

Esta estrategia no es nueva. Ya en 2018, la BBC News advirtió en su cuenta oficial de X de que se estaba difundiendo un vídeo falso con el logo de su cadena en el que se afirmaba que era inminente “una guerra nuclear entre Rusia y la OTAN”. Esta desinformación ha seguido circulando años más tarde: la agencia Reuters también publicó un texto desmintiendo estas imágenes en 2022.
La BBC ha vuelto a ser víctima de la desinformación rusa en los últimos meses. En abril de 2025, circuló un vídeo con el sello de la cadena británica afirmando que la primera dama de Ucrania, Olena Zelenska, intentó escapar del país y que, por ello, estaba bajo resguardo del Servicio de Seguridad. De nuevo, es un contenido manipulado: la BBC no ha publicado tal vídeo. Los verificadores de Logically Facts se pusieron en contacto con el departamento de prensa, desde donde respondieron que “esto no es periodismo de la BBC”. De hecho, la cadena británica ha tenido que salir en varias ocasiones a desmentir contenidos falsos que se difundían bajo su nombre.

La creación de artículos falsos es otra de sus tácticas para hacer creer a los usuarios que están ante contenidos que salen de medios de comunicación. Tras el apagón en España y Portugal del pasado 28 de abril de 2025, comenzó a circular una captura de pantalla de un texto supuestamente publicado por el medio británico The Independent con un titular que decía: “Apagón masivo en España-Portugal en directo: consecuencia de las acciones europeas contra Rusia”. Era falso y se compartió en redes sociales, Telegram y Pravda.

La Operación Matrioska o cómo los desinformadores prorrusos intentan manipular a verificadores de todo el mundo con alertas falsas
Este contenido, junto con un falso vídeo suplantando a France 24, fue compartido por bots de la denominada Operación Matrioska, muñeca rusa en su traducción, que tiene como objetivo manipular la actividad de grandes medios de comunicación y verificadores pidiéndoles verificar contenido en redes sociales. Se trata de una estrategia mediante la que perfiles de X mencionan a diferentes profesionales y medios de comunicación con peticiones de investigación de publicaciones potencialmente desinformadoras, que resultan ser falsas. Estos contenidos suelen tener mucho alcance, aunque los perfiles que lo comparten tienen pocos seguidores. Atribuida a Rusia, fue descubierta en enero de 2024 por AFP Factual y el colectivo Antibot4navalny.
“Hay un operador de desinformación alineado con el Estado ruso que crea y publica imágenes falsas con regularidad”, explica Antibot4navalny a Maldita.es. Recibe de Microsoft el nombre en clave de Storm-1679 y entre los contenidos que publica hay vídeos cortos con marca de agua de un importante medio de comunicación o de una universidad, portadas manipuladas o fotos trucadas de arte callejero, según destaca.

La operación Matrioska también ha sido conocida en otras ocasiones como Operación Overload, “sobrecarga” en su traducción del inglés, que no es sino una extensión de la Matrioska incluyendo el uso de envío masivo a verificadores, agencias de noticias y medios, pidiendo que se verifique un contenido.
EFE cuenta que en su servicio de verificación reciben regularmente a través de correo electrónico solicitudes para investigar mensajes de texto, fotografías y vídeos, escritas en inglés”. Según cuenta, han recibido medio centenar desde finales de diciembre de 2023. Y esta batería de preguntas coincide “en fórmula y contenido” con las que ha recibido en su cuenta oficial de X (@EFEVerifica) o con otras enviadas al perfil del conjunto de la Agencia EFE. Como ellos, varios miembros del European Fact-Checking Standards Network (EFCSN) también fueron blanco de esta campaña.
En 2024, la Operación Matrioska se trasladó también a Bluesky, una red social que apareció en 2023 como una alternativa a X, como advirtió Antibot4navalny en The Insider. Dependiendo del tema y el público objetivo publican estos contenidos en una plataforma diferente (Telegram, X y/o Bluesky). Si estas imágenes logran viralizarse pueden ser amplificadas por medios alineados con el Kremlin o incluso por funcionarios rusos, cuenta Antibot4navalny a Maldita.es. En enero de 2025, Antibot4navalny desarrolló una opción para poder etiquetar estos contenidos como parte de esta estrategia de los desinformadores rusos y conseguir, así, que suspendieran sus cuentas más rápidamente.
También crean páginas web con apariencia de medio de comunicación para dar más credibilidad a sus contenidos: la Operación Falsa Fachada
Otra práctica habitual que ponen en marcha los desinformadores rusos para dar credibilidad a los contenidos que difunden es la creación de páginas web con apariencia de medio de comunicación tradicional. Por ejemplo, en abril de 2024, una página web llamada The London Crier publicó el bulo de que Zelenski “adquirió por 20 millones de libras Highgrove House”, la antigua residencia del rey Carlos de Inglaterra. Según explicó el Ministerio de Relaciones Exteriores y de la Mancomunidad de Naciones del Reino Unido a Maldita.es, la casa sigue siendo del Ducado de Cornualles y no se había vendido al presidente de Ucrania.
Este contenido forma parte de una narrativa que asegura que el presidente de Ucrania y su mujer se gastan el dinero de Occidente en bienes de lujo.

The London Crier se creó en marzo de 2024, unos días antes de la publicación de estos contenidos falsos sobre el presidente de Ucrania, aunque a fecha de publicación de este texto está inactiva.
The New York Times publicó un análisis de varias cabeceras de supuestos periódicos que aparecieron en Estados Unidos el año pasado (algunos de ellos son The New York News Daily o the Chicago Chronicle) que intentaban hacer creer que son medios locales históricos, para así darle credibilidad y “difundir propaganda rusa”. Estos presentan características similares a The London Crier, cuyo nombre es muy similar al de una cabecera que estuvo en funcionamiento entre 1968 y 1980 llamada The Crier.
En esta misma línea está también DC Weekly, una página web que dice ser un periódico semanal que surgió hace 20 años pero, según un estudio reciente de la Universidad de Clemson, Carolina del Sur (EE.UU), nunca existió y el dominio que utiliza ha estado conectado a sitios web desde al menos 2017. En 2021, explican, “el dominio apuntaba a una dirección IP que se compartía con muchos otros dominios afiliados a John Mark Dougan, un ex oficial de policía y teórico de la conspiración que se mudó a Rusia en 2016”.
El estudio de la Universidad de Clemson añade que esta página web suele difundir desinformación sobre Ucrania y sus gobernantes con noticias copiadas y reescritas por motores de inteligencia artificial. De hecho, en esta plataforma se han compartido bulos como el verificado por StopFake sobre que la fundación de Zelenska “está vinculada” al tráfico de menores, una teoría de la conspiración muy similar al Pizzagate de Hillary Clinton; o el analizado por el departamento de verificación de la BBC que afirma que el presidente de Ucrania se ha comprado un yate de lujo.

Esta estrategia constituye lo que EUvsDesinfo, un proyecto de monitorización de desinformación del Servicio Europeo de Acción Exterior (SEAE), identificó como Operación Falsa Fachada, un procedimiento empleado por los desinformadores rusos que se basa en el lavado de información. En estos casos, toman el contenido de una fuente (generalmente no fiable, como un vídeo de YouTube o un post en X) y lo reelaboran en diferentes formatos (como puede ser una página web falsa con apariencia de medio de comunicación) para difundirlo a través de nuevos canales. Este lavado de información “suele emplearse para ocultar el origen de la fuente, para llegar a un público más amplio, o para ambos”, explican.
Este blanqueo consta, según analiza un informe de EUvsDesinfo, de tres fases llamadas:
Colocación. Hace referencia al momento en el que aparece el contenido, en una web o en redes sociales. Un vídeo en YouTube, por ejemplo.
Estratificación. Cuando se difunde a través de intermediarios para ocultar las conexiones y los orígenes. Lo consiguen traduciendo y republicando automáticamente los contenidos de los medios controlados por el Kremlin, eliminando cualquier referencia a su orígen, o convirtiendo los post de redes sociales en artículos escritos. En este caso, sería cuando lo publican páginas de la Falsa Fachada, como DC Weekly.
Integración. Fase final en la que el “artículo” se amplifica por medios controlados por el Kremlin, cuentas diplomáticas rusas, por ejemplo una embajada, o por redes de desinformación rusa como Pravda.
Podemos ver un ejemplo de este mecanismo con la cronología del bulo desmentido por Myth Detector, de Georgia, sobre la supuesta compra de una villa cerca de Berlín por parte de Zelenski. Supuestamente la propiedad perteneció anteriormente a Joseph Goebbels, el ministro de Propaganda de Adolf Hitler durante el Tercer Reich, y tenía un valor de 8 millones de euros.
Estos contenidos surgieron de un vídeo publicado en YouTube (lo que correspondería a la fase de colocación) el 24 de diciembre de 2023. Con esta “fuente”, la publicación nigeriana The Intel Drop replicó la desinformación en inglés el 27 de diciembre (dando inicio a la fase de estratificación). Esta página web ya había difundido desinformación anteriormente sobre Ucrania y teorías de la conspiración, según explica StopFake. Más tarde, fue compartido también por la cuenta oficial de X de la Embajada de Rusia en Sudáfrica, medios controlados por el Gobierno como Sputnik y la versión alemana del ecosistema Pravda (de lleno en la fase de integración).

Son varios los verificadores que desmintieron estos contenidos. Myth Detector publicó que el contrato que aparece como “prueba” en el vídeo es falso. La notaria que firma el documento, explican, ya no ejerce porque tiene 80 años y tampoco aparece la “copia certificada” que demuestra que el escrito es verídico. El departamento de verificación de AFP también contó que, a febrero de 2025, el Nido de Águilas (nombre con el que se conoce a la villa) sigue siendo propiedad de las autoridades estatales.
Crear medios para difundir desinformación no es nuevo: el caso de la KGB y el bulo de que EEUU creó el VIH
Estas tácticas no aparecieron con la llegada de internet. Hay ejemplos en los que el Kremlin actuó de forma parecida fuera del mundo digital. Es el caso del bulo de que el VIH fue creado por Estados Unidos difundido por la KGB, la agencia de seguridad e inteligencia de la Unión Soviética. Fue denominada como Operación Denver o Infektion y estuvo varios años en circulación, en los que se compartió en varios países, idiomas y formatos.
Según explican los investigadores de la Universidad de Clemson en un informe sobre la migración de Infektion al mundo digital, comenzó en 1983 con la colocación de una carta ficticia al editor en The Patriot, “un periódico indio creado algunos años antes por el KGB con el propósito de difundir propaganda pro-soviética”. Supuestamente estaba escrita por un respetado científico estadounidense y se titulaba “El SIDA puede invadir India”. En ella se afirmaba, recoge el estudio, “que el virus se originó en las instalaciones de investigación de guerra química y biológica de Estados Unidos en Fort Detrick, Maryland”.

Este artículo fue citado por el semanario soviético Literaturnaya Gazeta en 1985, según recoge la BBC. Esta teoría ganó más fuerza en 1986, cuando el doctor Jakob Segal y su esposa Lili, como coautora, publican un informe que dice tener pruebas de que el VIH fue creado en un laboratorio del Gobierno de Estados Unidos. La cadena británica afirma que el autor de este informe “de 47 páginas” era un “biólogo negacionista de la Alemania comunista”.
Así, esta teoría se hace “viral” y se propaga por todo el mundo; llegando a aparecer 200 reportes en 80 países diferentes. Se llegó a emitir en la televisión nacional estadounidense en 1987. Esta desinformación “caló” en muchas personas. Según una investigación publicada en 2011 sobre las creencias conspirativas y el origen del VIH en Estados Unidos, en 1999, el 27,8% de las personas negras, el 23,6% de los hispanos y el 8% de las personas blancas consideraban como algo muy probable o probable que el SIDA fuera un plan del Gobierno para matar intencionalmente a un determinado grupo de personas”. En 2003, cuatro años después de la primera encuesta, seguían manteniendo esta opinión el 34,1% de la población negra, el 21,9% de la hispana y el 8,4% de la blanca.
Cuando el Kremlin utiliza perfiles de falsos periodistas o suplantan la identidad de profesionales reales
También hemos presenciado cómo muchas campañas usan perfiles falsos de supuestos periodistas para firmar los contenidos. Se trata de una táctica que han repetido en varios casos con nombres inventados y fotografías robadas de otras páginas. Por ejemplo, la teoría conspiranoica de la fundación de Olena Zelenska, mujer de Zelenski y el tráfico de menores, publicada en DC Weekly, supuestamente estaba escrita por una tal Jessica Devlin, a quien se presentaba como una “distinguida y conocida periodista”. Sin embargo, no hay constancia de que tal profesional exista y la imagen que se utiliza realmente es una fotografía de la escritora canadiense Judy Batalion.

Y no solo se inventan la identidad de los periodistas que firman los contenidos, también crean personajes para convertirlos en la “fuente” o actor. Siguiendo con este mismo ejemplo, supuestamente la “investigación” que destapó la historia de Zelenska la llevó a cabo un periodista llamado Robert Schmidt. En realidad, no hay constancia de que exista un periodista con este nombre que haya elaborado tal investigación.
Un periodista freelance de Francia con ese mismo nombre publicó el 20 de marzo de 2025 en su perfil de LinkedIn que había recibido un correo electrónico preguntando sobre esta supuesta investigación, aunque él “nunca” ha escrito un artículo así. “Tras unas cuantas búsquedas en Google, di con un artículo en profundidad de Maldita.es”, cuenta. Y así es cómo, afirma, se dio cuenta de que estaba metido“en una sucia historia de desinformación contra Ucrania”.
En marzo de 2022 se viralizó un vídeo de una supuesta periodista ucraniana irrumpiendo en un programa de televisión local con un mensaje contra Zelenski. En el cartel se podía leer: “Zelenski renuncia, deja las drogas y vuelve a los escenarios”. AFP Factual contó que se difundió en varios idiomas y plataformas, días después de que la periodista rusa Marina Ovsiannikova protestara de forma similar en un noticiero de su país.

El departamento de verificación de la agencia de noticias explica que la autora del vídeo, una tiktoker rusa que lanza mensajes prorrusos en vídeos cortos en tono humorístico, reconoció que la protagonista no era periodista ni el vídeo era real. Se trataba de un montaje sobre un fondo verde: “Las imágenes se sacaron de un noticiero de la cadena de televisión Ucrania 24”, añaden.