<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0">
  <channel>
    <title>Maldita.es / Nosotros</title>
    <description>Novedades de Maldita.es</description>
    <link>https://maldita.es/nosotros</link>
    <lastBuildDate>Sat, 04 Apr 2026 19:17:14 +0200</lastBuildDate>
    <item>
      <title><![CDATA[La posición de la Fundación Maldita.es sobre las propuestas del gobierno para “defender los derechos digitales en las redes sociales”]]></title>
      <description><![CDATA[<p><span>El gobierno </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lamoncloa.gob.es/presidente/actividades/paginas/2026/030226-sanchez-cumbre-gobiernos-dubai.aspx"><span>ha anunciado</span></a><span> un paquete de medidas “para defender los derechos digitales en las redes sociales”, entre ellas una prohibición de acceso para menores de 16 años; la penalización de la manipulación algorítmica y la amplificación de contenidos ilegales; la responsabilidad penal de los directivos de las plataformas digitales; y la “tolerancia cero” con el contenido sexualizado de menores. En la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> llevamos muchos años investigando el papel que juegan las grandes plataformas en la desinformación y sus responsabilidades, por eso queremos compartir nuestra opinión.</span></p><p><span>En primer lugar, con lo que sabemos hoy, es difícil formar una opinión definitiva. Varias de las medidas requieren reformas legislativas y el gobierno todavía no ha presentado un texto legal que es imprescindible para entender el alcance y la efectividad de esas reformas, si es que finalmente se convierten en ley después de pasar el trámite parlamentario. Aún así, creemos que podemos aportar algo a este debate público con nuestra experiencia y la mejor evidencia disponible. También hace falta clarificar qué tipo de plataformas se considerarían “redes sociales” y por tanto afectadas por esta medida: si a aquellas que la legislación europea considera “plataformas muy grandes” por su número de usuarios o también, por ejemplo, a un foro como Reddit o Discord, o a las aplicaciones de mensajería.</span></p><h2><strong><span>La prohibición de acceso a las redes sociales a menores de 16: EL PELIGRO ESTÁ EN LOS DETALLES</span></strong></h2><p><span>Este es un debate que no ha llegado en exclusiva a España. Una prohibición similar lleva en vigor </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.reuters.com/technology/australia-passes-social-media-ban-children-under-16-2024-11-28/"><span>en Australia</span></a><span> desde hace dos meses y está en tramitación </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.theguardian.com/world/2026/jan/27/france-social-media-ban-under-15s"><span>en Francia</span></a><span> y </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://commonslibrary.parliament.uk/research-briefings/cbp-10468/"><span>en el Reino Unido</span></a><span>. En todos esos países la justificación de los partidarios de la medida es similar y apunta a diferentes estudios que documentan </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20221010/adiccion-tecnologia-redes-sociales/"><span>problemas de adicción</span></a><span> y consecuencias negativas para el aprendizaje o </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20230519/redes-sociales-salud-mental-jovenes/"><span>la salud mental</span></a><span>. También señalan que la ley ya prohíbe a los menores el acceso a otros productos considerados dañinos como el alcohol o tabaco, o les impide acceder a determinados establecimientos como salas de apuestas.</span></p><p><span>Hay una discusión de fondo sobre hasta qué punto las redes sociales son equiparables a esos productos en cuanto al daño que suponen, pero además hay un debate que en </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> consideramos fundamental sobre cómo se aplica en la práctica una prohibición de este tipo. El presidente del gobierno ha dicho específicamente que lo que pretende no es que haya “casillas de verificación, sino barreras reales que funcionen”. Y eso puede ser un problema.&nbsp;</span></p><p><span>Una medida que pretende proteger a los menores no puede convertirse </span><em><span>de facto </span></em><span>en el fin del anonimato en Internet o en un mecanismo de control por parte del Estado para saber quién y quién no tiene un perfil en redes. Tampoco las plataformas pueden ser por sí solas las garantes de este cumplimiento si eso les lleva a recopilar y procesar datos sensibles de todos sus usuarios, especialmente si son menores. Al mismo tiempo, otro tipo de tecnologías de estimación de edad a través de reconocimiento facial se están mostrando ineficaces en Australia, donde </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.abc.net.au/news/2026-02-05/social-media-ban-do-under-16s-think-it-is-working/106304064"><span>los testimonios de los propios menores</span></a><span> indican que el efecto real de la medida está siendo muy limitado. Hay que tener en cuenta también que una prohibición de acceso a determinadas redes puede acabar con los menores en lugares más peligrosos y menos regulados en internet, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20251022/roblox-videojuegos-online-menores-sexual-acoso/"><span>como Roblox</span></a><span>.&nbsp;</span></p><p><span>En cualquier caso y como no se conocen todavía los detalles del cambio legislativo, que el gobierno quiere incorporar al Proyecto de Ley de Protección de Personas Menores de Edad en Entornos Digitales, estamos abiertos a reconsiderar algunas de nuestras dudas si esos problemas se atajan. Lo que no va a cambiar es nuestra actitud hacia otras cosas que los poderes públicos pueden hacer para proteger a los menores en el entorno digital.</span></p><p><span>Los menores y todos los españoles necesitamos mucha más formación para afrontar las amenazas en Internet, para cultivar el sentido crítico y la alfabetización mediática. La escuela y la familia son espacios adecuados para tener este tipo de conversaciones y las administraciones pueden favorecerlas, empezando por incluir oficialmente estos temas como competencias transversales en el currículo educativo. Es algo que </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> le ha propuesto a diferentes gobiernos a todos los niveles.</span></p><h2><strong><span>La responsabilidad penal contra directivos y por manipulación algorítmica y amplificación de contenido ilegal: LA RESPONSABILIDAD ECONÓMICA ES MÁS EFECTIVA PARA LOGRAR CAMBIOS</span></strong></h2><p><span>Las plataformas digitales más grandes no cumplen con sus obligaciones legales sobre la retirada de contenido ilícito, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/investigaciones/20250619/denunciamos-meta-publicaciones-fraudulentas-facebook-dsa/"><span>como hemos documentado en </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/investigaciones/20250619/denunciamos-meta-publicaciones-fraudulentas-facebook-dsa/"><span> una y otra vez</span></a><span>. Esto genera una sensación de impunidad que mina la confianza pública, ya que parece que los espacios digitales funcionan a veces al margen de las reglas que imponen los estados democráticos. Sin embargo, no está claro que la persecución penal sea la forma más efectiva de lograr el objetivo final: que estas plataformas realicen los cambios necesarios para afrontar el problema.</span></p><p><span>En nuestra experiencia, lo que ha funcionado mejor es aumentar la responsabilidad económica y patrimonial de esas plataformas. Elon Musk no va a venir a España a declarar como imputado, pero X tiene un próspero negocio en España que sí puede ser objeto de multas. En </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> creemos que es ese daño económico el que de verdad puede generar cambios y, aunque la legislación europea ya recoge la posibilidad de multas muy contundentes por infracciones similares, también en España se puede avanzar en ese sentido.</span></p><p><span>La propuesta del gobierno habla de varias cosas, así que es importante aclarar algunos conceptos. No hay que confundir desinformación con contenido ilegal: hay mucho contenido ilegal que no es desinformación y la gran mayoría de lo que es desinformación, no es ilegal. Ante el contenido ilegal y en particular el que es obviamente ilegal (abuso sexual de menores, amenazas, estafas evidentes…) su obligación es borrarlo o asumir la responsabilidad legal por los daños ocasionados.&nbsp;</span></p><p><span>En el caso del contenido dañino pero legal, como es la mayoría de las veces la desinformación, se puede exigir a las plataformas que tomen medidas, pero en </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2022/06/desinformacion-y-legislacion-riesgos-oportunidades.pdf#page=16"><span>defendemos desde hace años</span></a><span> que el borrado que practican plataformas como YouTube o TikTok no es una medida efectiva contra la desinformación; al contrario, crea más desconfianza, desprotege al usuario y le da una excusa a la plataforma para no hacer lo que sí es efectivo: dar más información, añadir contexto, explicarle a los usuarios que lo están viendo por qué hay un problema ahí.&nbsp;</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32022R2065"><span>En la Unión Europea ya existe legislación</span></a><span> que explicita cómo denunciar contenido ilegal ante una plataforma y cómo debe actuar esta para bloquearlo, y esa misma ley también impone obligaciones a las plataformas más grandes para que tomen medidas para atajar la desinformación, que no pasan necesariamente por el borrado. Lo que parece proponer el gobierno (de nuevo, a falta de ver el texto legal real) es avanzar en la responsabilidad penal de los directivos de las plataformas “en particular cuando incumplan una orden de retirada de contenidos ilícitos”, pero también menciona los “contenidos tóxicos”.</span></p><p><span>En primer lugar, sólo contemplamos que esa “orden de retirada” se refiera a una orden judicial, cualquier otra cosa sería inconcebible. Hay algo que es importante aclarar: legalmente, ya se puede exigir a una plataforma responsabilidades por no haber actuado ante un contenido que un usuario le notificó como ilegal si luego un juez decide que era obviamente ilegal. Pero siempre tiene que ser un juez quien tiene la última palabra.&nbsp;</span></p><p><span>En cualquier caso, y hablando de la responsabilidad penal de los directivos, tenemos que volver a la cuestión de la utilidad de la reforma. Si el texto final acaba refiriéndose a la responsabilidad penal de los jefes globales de las plataformas, lo más probable es que esos ejecutivos difícilmente puedan acabar sentándose en el banquillo en España. Si por el contrario, hablamos de facilitar la responsabilidad penal de los representantes legales de esas plataformas en España, no parece que la amenaza de un castigo penal a esas personas vaya a alterar significativamente la actitud de esas empresas.</span></p><p><span>En cuanto a las acciones que el gobierno anuncia para “penalizar la manipulación algorítmica y la amplificación de contenidos ilegales” es imprescindible conocer los detalles del texto para poder opinar. Como hemos dicho, ya hay legislación europea en vigor sobre la responsabilidad de las grandes plataformas en la gestión de estos riesgos para los que la Comisión Europea tiene competencia exclusiva de supervisión, pero la amplificación algorítmica es una cuestión clave </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/investigaciones/20260126/manifestaciones-ia-tiktok-industria-polarizacion/"><span>cuyos efectos hemos estudiado en profundidad en </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>.&nbsp;</span></p><p><span>Estamos más que interesados en entender cómo una reforma legal establecería esa responsabilidad y el modo de probar la manipulación, particularmente cuando las plataformas hacen todo lo posible por evitar que se auditen sus algoritmos con valor legal. Si por el contrario hablamos de usuarios que manipulan los sistemas para amplificar contenido ilegal, será interesante ver qué tipo de penas se contemplan, aunque de nuevo nos parece que la responsabilidad patrimonial sería un instrumento más adecuado.&nbsp;</span></p><h2><span>“</span><strong><span>Tolerancia cero con infracciones vinculadas a contenido sexualizado de menores”: ADAPTAR LAS LEYES EXISTENTES A LOS CAMBIOS TECNOLÓGICOS</span></strong></h2><p><span>Algunas de nuestras últimas investigaciones dejan claro que grandes plataformas como </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/investigaciones/20251211/depredadores-tiktok-mina-pedofilos/"><span>TikTok tienen un problema con el contenido sexualizante de menores</span></a><span> que no pueden o no quieren atajar. En este ámbito puede ser una buena idea clarificar la formulación legal del delito de tenencia y distribución de pornografía infantil para adaptarse a los nuevos formatos en los que se produce, como la generación de contenido sexualizante mediante sistemas de inteligencia artificial.</span></p><p><span>En esta materia, el gobierno ha anunciado su voluntad de trabajar con el resto de instituciones públicas y en particular con la Fiscalía en la aplicación de las leyes vigentes. Nos parece particularmente importante que el gobierno empuje también esa colaboración en las instituciones europeas y en particular que se asegure de que estos riesgos reciban la atención prioritaria de los equipos de aplicación del Reglamento Europeo de Servicios Digitales de la Comisión Europea.&nbsp;</span></p><h2><strong><span>RECOMENDACIONES DE LA FUNDACIÓN </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href=""><strong><span>MALDITA.ES</span></strong></a><strong><span> AL LEGISLADOR</span></strong></h2><ol class="list-decimal"><li><p><span>El objetivo declarado de la reforma es positivo: “la protección de menores, la salud mental y la difusión de desinformación”, pero el contenido ilegal es sólo una parte del problema y las responsabilidad penal es sólo una parte de la solución.</span></p></li></ol><ol class="list-decimal" start="2"><li><p><span>Hay que definir bien los conceptos legales de lo que se quiere perseguir y cómo interactuarían esas normas con el marco existente en la UE para regular a las grandes plataformas.</span></p></li></ol><ol class="list-decimal" start="3"><li><p><span>La primera responsabilidad de los poderes públicos frente a la desinformación es no producir desinformación, en segundo lugar favorecer la capacidad de la ciudadanía para hacerle frente mediante la educación y con el apoyo a un ecosistema mediático de calidad, y sólo en tercer lugar la regulación, aunque esta puede tener un papel relevante al abordar el papel de las grandes plataformas.</span></p></li></ol><ol class="list-decimal" start="4"><li><p><span>Cualquier reforma debe tener como inspiración la defensa de los derechos a la libertad de expresión y a recibir información veraz recogidos en el artículo 20 de la Constitución Española. No sólo debe defenderlos, debe además explicar claramente a la ciudadanía por qué las actuaciones contra la desinformación y a favor de la rendición de cuentas de las grandes plataformas son beneficiosos para el disfrute de esos derechos, y buscar el consenso social más amplio posible para ponerlas en marcha.</span></p></li></ol>]]></description>
      <link>https://maldita.es/nosotros/20260206/opinion-malditaes-propuestas-gobierno-redes-sociales/</link>
      <pubDate>Fri, 06 Feb 2026 14:36:45 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2026/02/698606e7baee5posicion-maldita-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Fundación Maldita.es co organiza la jornada “Internet en 2026: desinformación, polarización y odio”]]></title>
      <description><![CDATA[<p><span>¿Por qué cada vez hay más desinformación, polarización y discurso de odio en internet? ¿Estamos a tiempo de cambiar de rumbo? Estas son las preguntas de partida de la jornada </span><strong><span>“Internet en 2026: desinformación, polarización y odio”</span></strong><span>, un evento que reunirá a organizaciones sociales, personas expertas y representantes del ámbito académico para reflexionar sobre el presente y el futuro del ecosistema informativo digital.</span></p><p><span>La actividad se enmarca en el proyecto europeo </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://hatedemics.eu/"><span>Hatedemics</span></a><span>, una iniciativa financiada por la Unión Europea que busca comprender, prevenir y combatir la propagación del discurso de odio y la desinformación en línea, especialmente en contextos de alta polarización social. El proyecto reúne a 12 organizaciones de Italia, España, Malta y Polonia y trabaja desde un enfoque interdisciplinar que combina investigación, incidencia pública, alfabetización mediática y participación ciudadana.</span></p><p><span>Según Clara Jiménez Cruz, co fundadora y CEO de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> y moderadora del encuentro, </span><em><span>“no estamos ante un problema puntual, sino ante un cambio estructural del ecosistema digital. Las plataformas digitales priorizan contenidos que generan reacción y enfrentamiento, y eso tiene un impacto directo en la calidad del debate público, en la convivencia y en la democracia, pero también en la seguridad de sus propios usuarios”</span></em><span>.&nbsp;</span></p><h2><span>Una jornada para entender el internet que viene</span></h2><p><span>La jornada arrancará por la mañana con un espacio de análisis y debate abierto al público, centrado en los grandes retos que atraviesan hoy el ecosistema digital y que marcarán el rumbo de internet en los próximos años. A lo largo de distintas charlas y mesas redondas, se abordará cómo la desinformación, la polarización y el discurso de odio se han convertido en fenómenos estructurales del entorno online, y qué respuestas son posibles desde la sociedad civil, las instituciones y los propios usuarios.</span></p><p><span>El primer bloque estará dedicado a analizar </span><strong><span>el odio en internet en 2026</span></strong><span>, poniendo el foco tanto en los problemas actuales como en las posibles soluciones. En esta conversación participarán organizaciones como OBERAXE o FELGTBI+, que compartirán su experiencia directa frente al impacto real del odio digital en distintos ámbitos sociales.</span></p><p><span>A continuación, se presentará el proyecto europeo </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://hatedemics.eu/"><strong><span>Hatedemics</span></strong></a><span>, una iniciativa que investiga cómo el discurso de odio y la desinformación se propagan en contextos de crisis seguido de un Show &amp; Tell para analizar casos concretos de contenidos generados por inteligencia artificial en TikTok, explorando cómo estas nuevas dinámicas tecnológicas están amplificando narrativas de odio y dificultando su detección.</span></p><p><span>Durante la mañana se discutirá también el papel de los gigantes de la tecnología en la polarización política y social, así como&nbsp; </span><strong><span>“La aventura de buscar información de calidad en las grandes plataformas digitales”, </span></strong><span>una mesa sobre la presencia menguante del contenido de medios de comunicación y la información contrastada en las principales redes sociales y buscadores.&nbsp;</span></p><p><span>La participación en las actividades es gratuita</span><strong><span> previo registro en el siguiente enlace</span></strong><span>: </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://bit.ly/4tmUBVK"><strong><span>https://bit.ly/4tmUBVK</span></strong></a></p><h2><span>De la reflexión a la acción: taller de estrategias contra bulos y odio online</span></h2><img src="https://files.maldita.es/maldita/uploads/2026/02/6985e69d20264de-la-reflexion-a-la-accion-taller-de-estrategias-contra-bulos-y-odio-online-png.png"><p></p><p><span>La jornada se completará por la tarde con un </span><strong><span>taller práctico</span></strong><span> dirigido especialmente a jóvenes y personas interesadas en adquirir estrategias concretas para combatir la desinformación y el discurso de odio en internet. A través de dinámicas participativas y ejemplos reales, los participantes podrán poner en práctica herramientas y técnicas para identificar bulos, cuestionar narrativas polarizadas y actuar de manera efectiva en sus propios entornos digitales.</span></p><p><span>El taller tendrá un enfoque aplicado y cercano, dando a conocer la plataforma y herramientas desarrolladas en el marco del proyecto </span><strong><span>Hatedemics</span></strong><span>, pensado para que cada participante pueda llevarse recursos útiles y replicables en su día a día.&nbsp;</span></p><p><span>Para participar en el taller es necesario registrarse en este formulario: </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://bit.ly/3McfaU2"><span>https://bit.ly/3McfaU2</span></a></p><p><span>El aforo del taller es limitado. Se entregará un certificado de asistencia.</span></p><p></p>]]></description>
      <link>https://maldita.es/nosotros/20260205/fundacion-malditaes-co-organiza-la-jornada-internet-en-2026-desinformacion-polarizacion-y-odio/</link>
      <pubDate>Thu, 05 Feb 2026 17:53:23 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2026/02/6984cad08ce3binternet-en-2026-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Cross-border Disinformation Targeting the Ukrainian Army and Foreign Volunteers Was the Most Prevalent in Late 2025]]></title>
      <description><![CDATA[<p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> publishes along ten other fact-checking organization </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2026/02/6980c3819de3f.pdf">a report</a> which<span> compiles the results of monitoring conducted between October 1, 2025, and December 31, 2025, as part of the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20251104/atafimi-campanas-desinformacion-transfronterizas/"><span>ATAFIMI</span></a><span> project. The initiative  aims to identify and analyze incidents of information manipulation and interference (FIMI) </span><strong><span>originating from Russia in various countries and languages</span></strong><span>. </span></p><p><span>The monitoring covers the following participating countries: Spain, Ukraine, Lithuania, Georgia, Bosnia and Herzegovina, Serbia, Argentina, Colombia, Mexico, and Venezuela.</span></p><p><span>These are the main highlights:</span></p><ul class="list-disc"><li><p><span>The most prominent narrative backed by disinformation claims during this period targeted the Ukrainian Army and the </span><strong><span>foreign soldiers </span></strong><span>fighting for Ukraine, with posts containing false claims collecting over 2 million views.</span></p></li><li><p><span>Unfunded claims targeting Volodímir Zelensky and </span><strong><span>accusations of corruption</span></strong><span> also regained traction and were</span><strong><span> detected in 9 out of 10 countries</span></strong><span>. For example, tweets accusing him of owning a Russian passport or of buying Bill Cosby’s house in New York were viewed over 3 and 1 million times, respectively.</span></p></li><li><p><span>The </span><strong><span>use of AI-generated content</span></strong><span> to support disinformation claims was widespread. Most viral posts were labeled with debunks by independent fact-checkers on Facebook and, at times, showed platform warnings on TikTok identifying the content as AI-generated. In contrast, only one Community Note was shown on X, and no warnings appeared on Telegram channels.</span></p></li><li><p><span>Several users sharing disinformation claims on X had blue checks, which was formerly used to indicate an account was verified and now means the user is paying a subscription and normally gets more visibility.</span></p></li></ul><p></p><p>Full report is accessible clicking <a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2026/02/6980c3819de3f.pdf">here</a>.</p><p></p><object data="https://files.maldita.es/maldita/uploads/2026/02/6980c2fd1e303ned-monitoring-report-january-2026-1-pdf.pdf#toolbar=0" type="application/pdf" width="100%" height="600px"><p>Este navegador no soporta mostrar archivos Document. : <a href="https://files.maldita.es/maldita/uploads/2026/02/6980c2fd1e303ned-monitoring-report-january-2026-1-pdf.pdf#pagemode=none&amp;toolbar=0&amp;statusbar=0&amp;messages=0&amp;navpanes=0">Descárgalo para poder verlo.</a></p></object>]]></description>
      <link>https://maldita.es/nosotros/20260130/ukrainian-army-foreign-soldiers-report-atafimi-2025/</link>
      <pubDate>Fri, 30 Jan 2026 16:23:31 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2026/01/697ccca97abb9atafimi-2025-informe-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La desinformación transfronteriza que ataca al Ejército ucraniano y a voluntarios extranjeros fue la más prevalente a finales de 2025]]></title>
      <description><![CDATA[<p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> publica junto a otras diez organizaciones de fact-checking </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2026/02/6980c34d35ec9.pdf"><span>un informe</span></a><span> que recopila los resultados del monitoreo realizado entre el 1 de octubre de 2025 y el 31 de diciembre de 2025 en el proyecto </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20251104/atafimi-campanas-desinformacion-transfronterizas/"><span>ATAFIMI</span></a><span>. El proyecto tiene como fin identificar y analizar incidentes de&nbsp; manipulación de información e injerencia (FIMI) de origen ruso </span><strong><span>en distintos países y en diferentes idiomas.</span></strong><span> </span></p><p><span>El monitoreo abarca los siguientes países participantes en el proyecto: España, Ucrania, Lituania, Georgia, Bosnia y Herzegovina, Serbia, Argentina, Colombia, México y Venezuela.</span></p><p><span>Entre los hallazgos destaca:</span></p><ul class="list-disc"><li><p><span>La narrativa más relevante respaldada por afirmaciones desinformativas durante este período estuvo dirigida contra el ejército ucraniano y los </span><strong><span>soldados extranjeros</span></strong><span> que luchan por Ucrania, con publicaciones que contenían afirmaciones falsas y que acumularon más de 2 millones de visualizaciones.</span></p></li><li><p><span>Las afirmaciones infundadas atacando a Volodímir Zelenski y las </span><strong><span>acusaciones de corrupción</span></strong><span> también recuperaron tracción y fueron </span><strong><span>detectadas en 9 de los 10 países analizados</span></strong><span>. Por ejemplo, tuits que lo acusaban de poseer un pasaporte ruso o de haber comprado la mansión de Bill Cosby en Nueva York fueron vistos más de 3 y 1 millón de veces, respectivamente.</span></p></li><li><p><span>El </span><strong><span>uso de contenido generado con IA</span></strong><span> para respaldar desinformación fue generalizado. La mayoría de las publicaciones virales fueron etiquetadas con desmentidos de verificadores independientes en Facebook y, en algunos casos, mostraron advertencias de la plataforma en TikTok que identificaban el contenido como generado por IA. En contraste, solo se mostró una Nota de la Comunidad en X y no aparecieron advertencias en los canales de Telegram.</span></p></li><li><p><span>Varios usuarios que compartieron afirmaciones desinformativas en X contaban con la marca azul, que anteriormente se utilizaba para indicar que una cuenta estaba verificada y que ahora significa que el usuario paga una suscripción y, por lo general, obtiene mayor visibilidad.</span></p></li></ul><p></p><p>El informe completo está disponible <a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2026/02/6980c34d35ec9.pdf">en este enlace</a><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2026/01/697ccb3d361cb.pdf">.</a></p><p></p><object data="https://files.maldita.es/maldita/uploads/2026/02/6980c31f88bb2ned-monitoring-report-january-2026-espanol-1-pdf.pdf#toolbar=0" type="application/pdf" width="100%" height="600px"><p>Este navegador no soporta mostrar archivos Document. : <a href="https://files.maldita.es/maldita/uploads/2026/02/6980c31f88bb2ned-monitoring-report-january-2026-espanol-1-pdf.pdf#pagemode=none&amp;toolbar=0&amp;statusbar=0&amp;messages=0&amp;navpanes=0">Descárgalo para poder verlo.</a></p></object>]]></description>
      <link>https://maldita.es/nosotros/20260130/ejercito-ucraniano-soldados-extranjeros-informe-atafimi-2025/</link>
      <pubDate>Fri, 30 Jan 2026 16:23:28 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2026/01/697cc85b43caaatafimi-2025-informe-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es participa en el proyecto europeo Resilient Citizens para fortalecer la respuesta comunitaria frente a la desinformación en emergencias climáticas]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> participa en el proyecto Resilient Citizens (Ciudadanía Resiliente), financiado por la Unión Europea a través del programa Erasmus+ y coordinado por la Federación Valenciana de Municipios y Provincias, que tiene como objetivo reforzar la preparación de las comunidades ante emergencias climáticas abordando el impacto de la desinformación y promoviendo el acceso a información confiable, práctica y adaptada a cada región.</span></p><p><span>El proyecto tendrá una duración de dos años y ofrecerá formaciones prácticas y accesibles, tanto en formato online como en actividades presenciales, dirigidas a la ciudadanía y a personas que trabajan con comunidades en España, Croacia y Grecia. El trabajo se centrará en tres grandes ejes: prevención y sostenibilidad; reacción y resiliencia; y comunicación confiable.</span></p><p><span>El consorcio está formado por cinco organizaciones europeas:</span></p><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.fvmp.es/"><span>Federación Valenciana de Municipios y Provincias</span></a><span> (España)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.instagram.com/hieuropeanyouth/"><span>Hi European Youth - HEY! </span></a><span>(España)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.pins-skrad.hr/"><span>Lokalna razvojna agencija Pins</span></a><span> (Croacia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.ccihellas.gr/"><span>Community Crisis Intervention</span></a><span> (Grecia)&nbsp;</span></p></li><li><p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> (España)</span></p></li></ul><h2><span>¿Qué aportará la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>?&nbsp;</span></h2><p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> contribuirá al proyecto con la investigación de necesidades y el desarrollo de herramientas y capacidades para asegurar el acceso de la ciudadanía a información de confianza y la identificación de desinformación, especialmente durante emergencias climáticas.&nbsp;</span></p><p><span>Además, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> tendrá a su cargo el planeamiento de una estrategia de comunicación accesible y sostenible para el proyecto, buscando que el mayor número de personas tenga conocimiento de las herramientas que estarán disponibles.&nbsp;</span></p><h2><span>¿Cuánto recibirá la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> para realizar el proyecto?</span></h2><p><span>Resiliente Citizens es un proyecto cofinanciado con 250.000 € por el programa Erasmus+ Cooperation partnerships in adult education (KA220-ADU) de la Unión Europea. La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> recibirá 45.000 € para realizar las actividades mencionadas durante dos años.&nbsp;</span></p><p></p><p></p><p></p><p><em><span>El proyecto “Resilient Citizens” está cofinanciado por la Unión Europea. Las opiniones y puntos de vista expresados en esta nota sólo comprometen a sus autores y no reflejan necesariamente los de la Unión Europea ni los del Servicio Español para la Internacionalización de la Educación (SEPIE). Ni la Unión Europea ni la Agencia Nacional SEPIE pueden ser considerados responsables de ellos.</span></em></p><p><br><br></p>]]></description>
      <link>https://maldita.es/nosotros/20260128/la-fundacion-malditaes-participa-en-el-proyecto-europeo-resilient-citizens/</link>
      <pubDate>Wed, 28 Jan 2026 16:53:00 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2026/01/6970e829d391abanner-web-nosotros-1600-x-615-px-28-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Fundación Maldita.es seleccionada por Civitates en el programa “Tech & Democracy 2025” para fortalecer la democracia digital en Europa]]></title>
      <description><![CDATA[<p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha sido seleccionada a través de una </span><strong><span>convocatoria pública</span></strong><span> como una de las iniciativas del </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://culturalfoundation.eu/stories/civitates-tech-democracy-open-call/"><strong><span>programa Tech &amp; Democracy 2025</span></strong></a><span>, impulsado por </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://civitates-eu.org/"><strong><span>Civitates</span></strong></a><span>, que apoya a organizaciones de siete países europeos —Hungría, Italia, Polonia, Eslovaquia, España, Rumanía y Países Bajos— en la implementación y supervisión de las regulaciones tecnológicas de la Unión Europea. Este programa busca garantizar que los espacios digitales sean más seguros, inclusivos y confiables, promoviendo la rendición de cuentas de las grandes plataformas tecnológicas, combatiendo la desinformación y fortaleciendo la democracia en línea.</span></p><p><span>Con su incorporación, la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> se suma a un grupo diverso de diez socios seleccionados en la convocatoria, que trabajan para defender la democracia digital, desde defensores de derechos y verificadores de hechos hasta colectivos ciberfeministas y observatorios legales. Juntos, buscan controlar a las grandes plataformas, monitorear daños algorítmicos, combatir la desinformación y construir futuros digitales más justos y equitativos.</span></p><h2><span>¿Qué hará la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>?</span></h2><p><span>El proyecto de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><span> se articula en tres pilares estratégicos:</span></p><p><strong><span>Fortalecimiento del compromiso institucional y capacidad de aplicación:</span></strong><span> se profundizará la colaboración con actores clave involucrados en políticas digitales. Se ofrecerá asesoría técnica y recomendaciones políticas para guiar la acción institucional en la aplicación de la Ley de Servicios Digitales (DSA, por sus siglas en inglés),&nbsp; incluyendo la presentación de denuncias y la generación de evidencia metodológicamente sólida para respaldar decisiones regulatorias.</span></p><p><strong><span>Producción de investigaciones y seguimiento de plataformas:</span></strong><span> se elaborarán informes y análisis que identifiquen incumplimientos sistemáticos de plataformas muy grandes (VLOPs y VLOSEs), con especial atención a periodos electorales y emergencias públicas. Se evaluará su cumplimiento con las obligaciones de evaluación y mitigación de riesgos, así como con la aplicación de la EMFA y el RGPD en relación con la desinformación y la rendición de cuentas.</span></p><p><strong><span>Comunicación estratégica y sensibilización pública:</span></strong><span> se lanzarán campañas dirigidas a actores institucionales y al público general a través de artículos de opinión, eventos y formatos digitales. Además, se organizarán actividades que reúnan a responsables, expertos y comunidades afectadas, promoviendo la transparencia y la responsabilidad en el entorno digital.</span></p><p><span>La subvención concedida asciende a 159.994,00 € a ejecutar entre septiembre de 2025 y agosto de 2027.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20260102/fundacion-malditaes-seleccionada-por-civitates-en-tech-democracy-para-fortalecer-la-democracia-digital-en-europa/</link>
      <pubDate>Fri, 02 Jan 2026 23:30:55 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2026/01/695846f43b26ecivitates-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es amplía su proyecto para hacer frente a la desinformación sobre agricultura, alimentación y el mundo rural]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha puesto en marcha una segunda edición de su proyecto </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20241010/fundacion-maldita-malagri-proyecto-europeo-agricultura/"><span>MALAGRI</span></a><span>, una iniciativa cofinanciada por la Unión Europea que tiene como objetivo aumentar el conocimiento y reducir la desinformación entre la población urbana, sobre todo la menor de 30 años, sobre la agricultura, la producción de alimentos y los entornos rurales, con un foco específico&nbsp; sobre la Política Agraria Común (PAC).&nbsp;</span></p><p><span>En esta nueva etapa, bajo el nombre de </span><em><span>Maldita Agricultura 2.0: Continuing to Promote Reliable Information about the CAP to Young Spanish Urbanites (Maldita Agricultura 2.0: Seguimos promoviendo información confiable acerca de la CAP para jóvenes urbanos españoles)</span></em><span>, se busca acercar a la juventud, a través de artículos explicativos, desmentidos y reportajes en profundidad sobre las narrativas desinformadores, la realidad del campo en España y en Europa, abordando temas relacionados a la agricultura como sector económico y profesional; la producción, transformación, transporte y distribución de alimentos; su impacto en el medio ambiente y los esfuerzos por reducirlo; la transparencia en la información al consumidor, la solidez del sector alimentario y los esfuerzos por disminuir el desperdicio de alimentos, entre otros aspectos.&nbsp;</span></p><p><span>Estos contenidos serán adaptados a diferentes formatos para distribuirlos en redes sociales con lenguajes más cercanos para el público juvenil. Además,&nbsp;se elaborarán contenidos educativos enfocados a&nbsp; fomentar un consumo de información más seguro y responsable.&nbsp;</span></p><h2><span>¿Quién financia y cuánto dinero recibe </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> para llevar a cabo este proyecto?</span></h2><p><em><span>Maldita Agricultura 2.0: Continuing to Promote Reliable Information about the CAP to Young Spanish Urbanites</span></em><span> es un proyecto cofinanciado (60%) por la Comisión Europea a través del programa IMCAP (</span><em><span>Information Measures Relating to the Common Agricultural Policy</span></em><span>, política sobre medidas informativas en relación a la política agraria común) y recibirá €90.813,47 durante 12 meses.&nbsp;</span></p><p><span>&nbsp;Proyecto: 101233767</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20251230/fundacion-malditaes-amplia-su-proyecto-para-hacer-frente-a-la-desinformacion-sobre-agricultura/</link>
      <pubDate>Tue, 30 Dec 2025 17:13:07 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/12/6953f9c0494b6malagri-2-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Un estudio del proyecto MILD revela estereotipos persistentes, barreras estructurales sistémicas y la invisibilidad de voces migrantes en medios europeos]]></title>
      <description><![CDATA[<p><span>El proyecto</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250507/maldita-mild-desinformacion-migrantes/"><span> MILD</span><strong><em><span> (More correct Information, Less Discrimination)</span></em></strong></a><span>, del que </span><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span> </span></strong><span>es parte, ha publicado cuatro informes nacionales que analizan cómo se representa a las personas migrantes, refugiadas y racializadas en los medios de comunicación en Italia, Grecia, Malta y España. Además, analizan cómo los profesionales perciben el acceso, la inclusión y la discriminación dentro del sector en cada uno de esos países.&nbsp;</span></p><p><span>La investigación fue llevada a cabo por Lunaria, la Asociación Carta di Roma African Media Association Malta, Antigone y por Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> en España y </span><strong><span>están disponibles para su descarga en la web del </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cronachediordinariorazzismo.org/mild-project-reports/"><strong><span>proyecto</span></strong></a><span>.</span></p><p><span>Realizada entre mayo y agosto de 2025, contó con la participación de 68 profesionales del periodismo, la sociedad civil, la academia y la comunicación. En conjunto, los resultados revelan tendencias sistémicas: la persistencia de estereotipos, el acceso desigual a las profesiones mediáticas y la casi invisibilidad de las voces migrantes en las narrativas públicas, a pesar de una creciente concienciación sobre la necesidad de cambio.</span></p><h2><strong><span>Principales hallazgos&nbsp;</span></strong></h2><ul class="list-disc"><li><p><strong><span>Las personas migrantes siguen siendo en gran medida invisibles en los ecosistemas mediáticos europeos</span></strong><span>.&nbsp; En los cuatro países: Italia, Maldita, Grecia y España, las personas entrevistadas describieron una notable ausencia de voces migrantes en las noticias y en los debates mediáticos. A menudo, las personas migrantes son “objeto de discurso en lugar de sujetos con voz propia”, lo que limita su capacidad para participar en la vida pública y moldear las narrativas que les afectan directamente.&nbsp; Los participantes de la investigación subrayaron de manera reiterada que, cuando las personas migrantes aparecen en los medios, lo hacen de forma breve y generalmente en roles pasivos: como víctimas, cifras o figuras de fondo.&nbsp;</span></p></li><li><p><strong><span>Las narrativas estereotipadas y centradas en la crisis dominan la cobertura mediática. </span></strong><span>La investigación muestra que los medios retratan la migración principalmente a través de los marcos de la emergencia, la seguridad, la criminalidad y el conflicto. En Italia, un lenguaje alarmista como “emergencia”, “crisis” e “invasión” apareció 5.728 veces en los principales periódicos entre 2013 y 2024. En Grecia, las personas participantes identificaron tres marcos recurrentes que etiquetan a las personas migrantes como amenazas, cargas o riesgos para la seguridad. En Malta, a pesar de que las personas migrantes representaban el 21 % de la población en 2024, la cobertura sigue estando dominada por imágenes de llegadas por mar y narrativas de crisis. En España, pese a contar con una población migrante altamente diversa, las representaciones mediáticas continúan reforzando jerarquías de empatía, presentando a algunos grupos como merecedores de solidaridad y a otros como sospechosos o indeseables.</span></p></li><li><p><strong><span>Existe conciencia, pero las barreras estructurales limitan el acceso de las personas migrantes al periodismo. </span></strong><span>Aunque la mayoría de las organizaciones entrevistadas afirman defender valores de igualdad y respeto, los mecanismos concretos para prevenir la discriminación o guiar una información inclusiva siguen siendo escasos, y la ausencia de profesionales migrantes en el sector es una realidad. Los informes de los cuatro países señalan que, si bien el acceso al periodismo parece abierto en teoría, en la práctica sigue estando restringido. Barreras sistémicas como los requisitos lingüísticos o de acreditación, las redes informales de contratación o el limitado reconocimiento de titulaciones extranjeras están muy extendidas. Esto refuerza aún más la falta de perspectivas diversas en los contenidos mediáticos.&nbsp;</span></p></li></ul><h2><strong><span>Las buenas prácticas emergentes demuestran que existen alternativas</span></strong></h2><p><span>A pesar de estos desafíos, la investigación identifica iniciativas prometedoras en los cuatro países, como plataformas informativas lideradas por personas migrantes que ofrecen periodismo comunitario, colaboraciones entre ONG y medios de comunicación que producen narrativas más equilibradas, prácticas editoriales éticas que cuestionan el sensacionalismo; proyectos de narración y alfabetización mediática que humanizan las experiencias migrantes o distintas estrategias de comunicación impulsadas por organizaciones de la sociedad civil.</span></p><p><em><span>El proyecto MILD -More Correct Information, Less Discrimination- es una iniciativa cofinanciada por la Unión Europea y coordinada por Lunaria (Italia), en colaboración con African Media Association Malta, ANTIGONE (Grecia), Carta di Roma (Italia) y </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span> (España).</span></em></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20251229/estudio-revela-estereotipos-persistentes-e-invisibilidad-de-voces-migrantes-en-medios-europeos/</link>
      <pubDate>Mon, 29 Dec 2025 12:53:32 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/12/69526b73c8610informe-mild-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Estudio advierte que Georgia enfrenta riesgos crecientes de autocracia informativa y desinformación  por la combinación de injerencia extranjera y dinámicas internas]]></title>
      <description><![CDATA[<p><span>El estudio</span><strong><em><span> </span></em></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://mdfgeorgia.ge/eng/view-library/269"><strong><em><span>FIMI and Informational Autocracy in Georgia</span></em></strong></a><span>, analiza el entorno informativo de Georgia ante los crecientes riesgos de manipulación </span><strong><span>e injerencia informativa extranjera (FIMI)</span></strong><span>, así como los factores internos y externos que moldean la opinión pública. La investigación, llevada a cabo por investigadores de Media Development Foundation como parte del proyecto </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250516/maldita-safimi-desinformacion-georgia/"><span>SAFIMI Georgia: Georgian Society Against FIMI, Disinformation and Coordinated Inauthentic Behaviour</span></a><span>, ofrece una radiografía completa del ecosistema de desinformación en el país y propone elementos clave para fortalecer la resiliencia social frente a estas amenazas.</span></p><p><span>El estudio examina el contexto político y mediático georgiano, incluyendo las narrativas impulsadas por actores extranjeros, principalmente Rusia, seguido de China. La investigación alerta sobre el aumento de discursos antioccidentales, la instrumentalización política de la comunicación pública y los riesgos asociados al avance de prácticas de autocracia informativa. A nivel interno, se percibe un gobierno que ataca cada vez más a las instituciones democráticas nacionales, combinando legislación represiva con una retórica hostil hacia instituciones independientes.&nbsp;</span></p><h2><span>Principales hallazgos del estudio</span></h2><p><span>El informe analiza los documentos estratégicos y el marco institucional de Georgia en materia de FIMI, revelando contradicciones entre la retórica gubernamental y sus acciones. A pesar de que las estrategias oficiales reconocen la propaganda rusa como una amenaza, las respuestas estatales han sido insuficientes o inconsistentes.</span></p><p><span>Además, examina las narrativas impulsadas por actores internos y externos. El estudio identifica algunos ejes clave utilizados para presentar a Occidente como una amenaza: la interferencia en la soberanía nacional, la supuesta intención de arrastrar a Georgia a un conflicto con Rusia y la pérdida de identidad cultural. Estas narrativas presentan a los actores extranjeros como amenazas políticas y culturales, reforzando el discurso gubernamental que se autodefine como garante de la soberanía y los valores de Georgia.</span></p><p><span>También detalla las tácticas, técnicas y procedimientos más utilizados en las campañas de desinformación. La mayoría de los contenidos manipuladores se originan en fuentes en lengua georgiana, con un fuerte protagonismo de mensajes políticos e identitarios. También se documenta el uso de tecnologías como imágenes falsas generadas por IA y llamadas manipuladas para influir en procesos electorales.</span></p><p><span>Por último identifica a los actores implicados. Rusia sigue siendo el principal impulsor de operaciones de influencia, a través de medios vinculados al Kremlin y redes de propaganda multilingües. Además, señala la presencia limitada pero creciente de contenidos de influencia china. El informe también subraya la creciente participación de actores internos, incluidos partidos políticos, medios alineados con el gobierno y plataformas digitales que reciben fondos públicos.</span></p><p><span>La investigación se desarrolló mediante un enfoque de métodos mixtos, combinando análisis documental, monitoreo mediático, bases de datos de verificación, análisis del discurso, encuestas de opinión pública y grupos focales.&nbsp;</span></p><p><span>Este estudio forma parte del proyecto financiado por la Unión Europea </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250516/maldita-safimi-desinformacion-georgia/"><span>“SAFIMI Georgia: Georgian Society Against FIMI, Disinformation and Coordinated Inauthentic Behaviour”, </span></a><span>coordinado por la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> en colaboración con Media Development Foundation (Georgia), </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://transparency.ge/en"><span>Transparency International </span></a><span>(Georgia) y Transatlantic Foundation (Belgium).&nbsp;&nbsp;</span></p><p><span>Este informe complementa los hallazgo del informe </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://mdfgeorgia.ge/uploads//CRRC-MDF_Report_ENG_28.07.2025.pdf"><span>“Survey on Media Consumption and Disinformation in Georgia 2025”</span></a><span>, que examinó el impacto de la desinformación y la percepción de la interferencia y manipulación extranjera (FIMI, por sus siglas en inglés)&nbsp; en el ecosistema informativo del país y que mostraron una alta desconfianza hacia los medios y bajos niveles de alfabetización mediática.&nbsp;</span></p>]]></description>
      <link>https://maldita.es/nosotros/20251219/georgia-enfrenta-riesgosde-autocracia-informativa-y-desinformacion/</link>
      <pubDate>Fri, 19 Dec 2025 09:23:31 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/12/694402f524438banner-web-nosotros-1600-x-615-px-24-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Más de 20 organizaciones y 40 investigadores reclaman al Congreso la aplicación de la Ley de Servicios Digitales (DSA) en España en una carta promovida por la Fundación Maldita.es]]></title>
      <description><![CDATA[<p><span>Tres años después de la entrada en vigor del </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32022R2065"><span>Reglamento de la UE de Servicios Digitales</span></a><span>, los españoles siguen teniendo sus derechos menos protegidos que otros millones de ciudadanos europeos. Por eso la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha promovido </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/11/69170a8abf071.pdf"><span>una carta para reclamar a los grupos parlamentarios</span></a><span> que den luz verde a las competencias y recursos que necesita la Comisión Nacional de Mercados y Competencia (CNMC) para implementar la DSA en España.&nbsp;</span></p><p><span>El reglamento, más conocido como </span><strong><span>Digital Services Act (DSA)</span></strong><span> por su nombre en inglés, es </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20240102/ley-servicios-digitales-dsa-como-se-esta-implementando/"><span>una regulación innovadora y fundamental</span></a><span> para asegurar que las plataformas digitales y buscadores más grandes actúen según unas reglas, con obligación de identificar y reducir los riesgos que sus servicios suponen a veces para los menores de edad, la salud, las elecciones o la desinformación. También abre posibilidades inéditas hasta ahora para que los investigadores puedan estudiar lo que sucede en esas plataformas.</span></p><p><span>En la aplicación de esa regulación tienen un papel muy relevante los Coordinadores de Servicios Digitales de cada estado miembro, que son las autoridades independientes responsables de buena parte de su ejecución. Sin embargo, aunque la ley fue aprobada en Europa con un amplísimo apoyo también entre los eurodiputados españoles, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://digital-strategy.ec.europa.eu/en/news/commission-decides-refer-czechia-spain-cyprus-poland-and-portugal-court-justice-european-union-due"><span>la Comisión Europea ha tenido que llevar a España&nbsp; ante el Tribunal de Justicia de la UE</span></a><span> por incumplirla al no dar a la CNMC las atribuciones necesarias para desplegarla en España.</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/11/69170a8abf071.pdf"><span>Puedes leer la carta completa aquí</span></a><span>.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20251116/congreso-ley-servicios-digitales-dsa-espana-carta/</link>
      <pubDate>Sun, 16 Nov 2025 08:00:00 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/691747c16fae8carta-dsa-twitter-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La desinformación y la manipulación extranjera son los principales riesgos para el ecosistema informativo en Georgia]]></title>
      <description><![CDATA[<p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.mdfgeorgia.ge/eng/home"><span>Media Development Foundation (MDF)</span></a><span>, con el apoyo de la Unión Europea y en colaboración con la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span>, han publicado un estudio, realizado por </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://crrc.ge/en/"><span>CRRC-Georgia</span></a><span> que analiza los hábitos de consumo mediático, las actitudes hacia la información y las habilidades de alfabetización mediática de la ciudadanía georgiana.</span></p><p><span>El informe </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://mdfgeorgia.ge/uploads//CRRC-MDF_Report_ENG_28.07.2025.pdf"><em><span>“Survey on Media Consumption and Disinformation in Georgia 2025”</span></em></a><span>, examina el impacto de la desinformación y la percepción de la interferencia y manipulación extranjera (FIMI, por sus siglas en inglés)&nbsp; en el ecosistema informativo del país, a través de una encuesta telefónica realizada a 1,053 personas y cinco grupos focales realizados entre población georgianohablante.</span></p><p><span>Los resultados muestran una </span><strong><span>alta desconfianza hacia los medios</span></strong><span> y </span><strong><span>bajos niveles de alfabetización mediática</span></strong><span>, con importantes desigualdades entre grupos sociales y territoriales. Además, identifica una preocupante alineación entre narrativas internas y mensajes de desinformación de origen ruso, que retratan a actores occidentales como amenazas a la soberanía y los valores nacionales de Georgia.&nbsp;</span></p><p><span>Según el estudio, las personas mayores, rurales y con menor nivel educativo son las más expuestas a la desinformación, debido a un acceso limitado a medios diversos y a escasas prácticas de verificación. Los jóvenes consumen sobre todo redes sociales, confían poco en los contenidos y, aunque tienden más a verificar, siguen siendo vulnerables por la exposición algorítmica. En cuanto al género, las mujeres se informan con mayor regularidad y los hombres son más escépticos pero dependen más de las redes sociales; ambos presentan vulnerabilidades distintas y percepciones diferentes sobre la interferencia extranjera.</span></p><h3><strong><span>Una llamada a fortalecer la alfabetización mediática</span></strong></h3><p><span>El informe subraya la necesidad urgente de reforzar la alfabetización mediática y las capacidades de verificación, especialmente entre grupos vulnerables: personas mayores, comunidades rurales, minorías lingüísticas y ciudadanos con menor nivel educativo.</span></p><p><span>Este estudio forma parte del proyecto financiado por la Unión Europea </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250516/maldita-safimi-desinformacion-georgia/"><span>“SAFIMI Georgia: Georgian Society Against FIMI, Disinformation and Coordinated Inauthentic Behaviour”, </span></a><span>coordinado por </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>&nbsp; en colaboración con Media Development Foundation (Georgia), </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://transparency.ge/en"><span>Transparency International </span></a><span>(Georgia) y Transatlantic Foundation (Belgium).&nbsp; Los resultados contribuyen a comprender mejor los patrones de consumo mediático y los riesgos de desinformación en contextos de alta polarización y vulnerabilidad informativa.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20251113/desinformacion-y-manipulacion-extranjera-principales-riesgos-para-el-ecosistema-informativo-en-georgia/</link>
      <pubDate>Thu, 13 Nov 2025 15:31:21 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/6915ebf34e880encuesta-safimi-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La CNMV multa a Twitter con 5 millones por permitir los anuncios fraudulentos de ‘Quantum AI’: Maldita.es ya denunció que fueron vistos más de 60 millones de veces]]></title>
      <description><![CDATA[<p><span>La CNMV </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.boe.es/boe/dias/2025/11/13/pdfs/BOE-A-2025-23046.pdf"><span>ha impuesto</span></a><span> una </span><strong><span>multa de 5 millones de euros</span></strong><span> a Twitter, ahora X, tras abrir </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cnmv.es/Portal/verDoc.axd?t=%7B10abb770-53c4-4da8-88f6-abca228f463d%7D"><span>un expediente sancionador</span></a><span> a Twitter en diciembre de 2024 por incumplir sus obligaciones legales con respecto a una serie de anuncios financieros. En concreto, la multa hace referencia a los anuncios promocionados por Quantum AI, que la CNMV considera que son un “fraude financiero”.&nbsp;&nbsp;</span></p><p><span>A finales de 2023 la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ya alertó de al menos</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20240516/76-millones-intentos-timo-falsos-anuncios-famosos-twitter/"><span> 165 anuncios en Twitter</span></a><span> en los que se suplantaba la imagen de famosos y medios españoles para promocionar entidades que ofrecían falsas inversiones en criptomonedas y que habían alcanzado 76 millones de impresiones y, en su mayoría (83%), redirigían a ‘</span><strong><span>Quantum AI’,&nbsp; </span></strong><span>entidad señalada por la Comisión Nacional del Mercado de Valores (CNMV) como</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cnmv.es/webservices/verdocumento/ver?t=%7B09d41cac-c0df-4a7d-ac7f-330b0884908f%7D"><span>“fraude financiero</span></a><span>” y </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cnmv.es/webservices/verdocumento/ver?e=dBfbe0C6xZQPzDx3mz8zX4bgIfO3RtNU2TGg1f2UJVUILCnUAEn6Pt63MwWh%2bqV8"><span>desde noviembre de 2023</span></a><span> considerada&nbsp; como compañía no autorizada para prestar servicios de inversión</span><strong><span> por el regulador español. </span></strong></p><h2><span>Por qué la sanción es para Twitter</span></h2><p><span>Al hacer uso del sistema de promoción de X Ads, la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.boe.es/buscar/act.php?id=BOE-A-2023-7053"><span>Ley de los Mercados de Valores y de los Servicios de Inversión</span></a><span> obliga a Twitter a </span><strong><span>comprobar que ‘Quantum AI’ contaba con la “autorización para prestar servicios de inversión”</span></strong><span> antes de que los anuncios empezasen a circular. Además,&nbsp; también tenía el deber de comprobar que los anunciantes no se encontraban incluidos entre las “entidades advertidas por la CNMV o por organismos supervisores extranjeros”, y Quantum AI tenía una advertencia desde finales de 2023 por “presunto fraude”.&nbsp;</span></p><p><span>La CNMV analizó el posible </span><strong><span>incumplimiento de esas dos obligaciones</span></strong><span> recogidas en el artículo 246 y concluyó que Twitter cometió una </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.boe.es/buscar/act.php?id=BOE-A-2023-7053#:~:text=f)%20La%20infracci%C3%B3n%20recogida%20en%20la%20letra%20n)%20se%20considerar%C3%A1%20muy%20grave"><span>“infracción muy grave”</span></a><span>, imponiéndole una </span><strong><span>multa de 5 millones de euros</span></strong><span>.</span></p><p><span>La </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.boe.es/boe/dias/2025/11/13/pdfs/BOE-A-2025-23046.pdf"><span>resolución publicada en el Boletín Oficial del Estado</span></a><span> indica que </span><strong><span>Twitter ha renunciado a presentar recurso</span></strong><span> administrativo pero aún podría presentarlo ante un órgano judicial (concretamente, la Sala de lo Contencioso-Administrativo de la Audiencia Nacional). Si lo hiciera, un juez independiente revisaría si la sanción impuesta por la administración fue legal y correcta.</span></p><h2><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> analizó 165 anuncios en Twitter que promocionaban falsas inversiones y habían sido visto más de 70 millones de veces</span></h2><p><span>Cientos de anuncios con el mismo patrón inundaron X en España entre finales de 2023 y principios de 2024. Aprovechando la </span><strong><span>imagen de personas famosas españolas</span></strong><span> como reclamo y de </span><strong><span>medios de comunicación</span></strong><span> para aportar autoridad, estos anuncios publicados por </span><strong><span>cuentas con tic azul</span></strong><span> promocionaban </span><strong><span>páginas webs que ofrecían falsas inversiones en criptomonedas</span></strong><span>.</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/11/6915afe48ea4flolaindigoanuncio-png.png" draggable="false" contenteditable="false"><figcaption>Anuncio fraudulento con la imagen de Lola Índigo</figcaption></figure><p></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/11/6915b0218f1camartinoanuncios-png.png" draggable="false" contenteditable="false"><figcaption>Web de una falsa entrevista a Martiño Rivas promocionando ‘Quantum AI’ y suplantando a El País</figcaption></figure><p><strong><span>Lola Índigo, Martiño Rivas o Cristina Pedroche</span></strong><span> fueron algunos de los famosos más afectados por </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/uploads/2024/05/timos-de-twitter-05.pdf"><span>estas publicaciones fraudulentas analizadas por </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> que alcanzaron a 368.000 usuarios de media y fueron vistos más de 76 millones de veces en total. Quantum AI fue la plataforma más recurrente.</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> también </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/uploads/2024/05/timos-de-twitter-05.pdf"><span>estudió</span></a><span> </span><strong><span>la falta de actuación y la moderación inconsistente de X ante anuncios que pueden ser considerados ilegales</span></strong><span> por motivos de suplantación, publicidad engañosa y de promoción de una entidad señalada como </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cnmv.es/webservices/verdocumento/ver?t=%7B09d41cac-c0df-4a7d-ac7f-330b0884908f%7D"><span>“fraude financiero”</span></a><span>, y que incumplen además sus normas internas. X sólo detuvo el 35% de los anuncios, ofreciendo hasta siete justificaciones distintas para contenidos con exactamente el mismo patrón.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20251113/cnmv-twitter-multa-quantumai-5-millones/</link>
      <pubDate>Thu, 13 Nov 2025 12:06:50 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/6915b03da6491quantum-ai-1-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Fundación Maldita.es y Faktograf desarrollan una guía para detectar, clasificar y prevenir fraudes y estafas digitales]]></title>
      <description><![CDATA[<p><span>El fraude digital se ha consolidado como una de las principales amenazas del entorno online. El uso de inteligencia artificial generativa (GenAI) ha amplificado estas estafas, al permitir automatizar mensajes o suplantar identidades. Estas herramientas potencian las técnicas de ingeniería social, que manipulan la confianza de las víctimas a través de narrativas cada vez más sofisticadas y complejas.&nbsp;</span></p><p><span>Para comprender mejor cómo operan estas estafas y ofrecer un marco común para analizarlas, Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span> </span></em><span>y Faktograf han desarrollado una tipología basada en la evidencia real que aportan los avisos enviados por los usuarios a través del chatbot de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span> </span></em><span>(</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://wa.me/34644229319"><span>+34 644 22 93 19</span></a><span>). Estos casos llegan a través del Disinformation Management System (DMS), la herramienta con la que la organización recoge y organiza los avisos que la ciudadanía envía sobre posibles engaños, bulos o estafas detectadas en el día a día.&nbsp;</span></p><p><span>Esta base empírica ha sido esencial para identificar patrones, analizar cómo evolucionan las tácticas de los estafadores y fundamentar el marco metodológico desarrollado en el informe </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://faktograf.hr/wp-content/uploads/2025/10/a-typology-of-digital-scams-maldita.pdf"><span>“</span><em><span>A Typology of Digital Scams: A Framework for Detection, Classification, and Prevention”</span></em></a><span>, un documento en el que se identifican los principales tipos de engaños en el entorno online y se explica cómo el uso de inteligencia artificial ha multiplicado su alcance y sofisticación.&nbsp;</span></p><p><span>A partir de esta base, se ha diseñado una tipología flexible y escalable que combina el análisis técnico, que agrupa los fraudes según el canal o la técnica utilizada (por ejemplo </span><em><span>phishing, vishing </span></em><span>&nbsp;o </span><em><span>QRshing</span></em><span>), con el análisis narrativo, que los clasifica según el tipo de historia o pretexto empleado, como promociones falsas, sorteos inexistentes o intentos de extorsión.&nbsp;</span></p><p><span>El informe propone aplicar esta tipología en estrategias de protección de marca y gestión de riesgos, así como en programas de educación mediática, digital y financiera que contribuyan a prevenir los engaños en línea. También incluye recomendaciones para compañías, autoridades, plataformas y organizaciones de verificación con el fin de reforzar la transparencia, la colaboración y la responsabilidad compartida frente a los fraudes en internet.</span></p><p><span>El documento se enmarca en el proyecto europeo “Exposing Scams: A Corporate and Civic Response”, financiado por el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://thecivics.eu/projects/civic-innovation-fund/"><span>Civic Innovation Fund (CIF)</span></a><span>, un fondo conjunto gestionado por </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://thecivics.eu/"><span>THE CIVICS Innovation Hub</span></a><span> con el apoyo de la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.erstestiftung.org/en/"><span>ERSTE Foundation</span></a><span>.</span></p><p><span>Puedes consultar el informe completo </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://faktograf.hr/wp-content/uploads/2025/10/a-typology-of-digital-scams-maldita.pdf"><span>aquí</span></a><span>.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20251106/maldita-faktograf-guia-detectar-clasificar-prevenir-fraudes-estafas-digitales/</link>
      <pubDate>Thu, 06 Nov 2025 14:35:09 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/690ca19944c6dtimo-maldita-faktograf-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Prebunking at Scale: The next chapter for European fact checking]]></title>
      <description><![CDATA[<p><span>Full Fact &amp; Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a></p><p><span>Harmful misinformation is spreading faster than ever. Across Europe, false claims about health, politics and the environment are shared on short-form video platforms and social media with increasing speed. By the time a fact check is written and published, the damage is often already done.</span></p><p><span>That’s why </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://fullfact.org/"><span>Full Fact</span></a><span>, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/"><span>Fundación </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> and the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com"><span>European Fact-Checking Standards Network</span></a><span> (EFCSN) have </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/advancing-fact-checking/"><span>joined forces</span></a><span> on a Prebunking at Scale project (PAS). The project is building a shared AI-powered tool and a common methodology for prebunking, rooted in the experience of more than 40 fact checking organisations across Europe.</span></p><h2><span>The origins of PAS&nbsp;</span></h2><p><span>Fact checkers have long relied on debunking - publishing corrections after a false or misleading claim spreads. Prebunking, by contrast, aims to prepare the public in advance by exposing them to the tactics and tropes of misinformation before they encounter it.</span></p><p><span>But until now, prebunking has faced two challenges:</span></p><ul class="list-disc"><li><p><span>Messages are often too broad to be useful in fast-moving debates&nbsp;</span></p></li><li><p><span>Prebunks are rarely published in the narrow window before narratives containing disinformation take off.</span></p></li></ul><p><span>PAS was designed to solve both problems. By combining AI monitoring with human expertise, the project identifies early signals of emerging disinformation narratives, so fact checkers can publish prebunks in time to blunt their spread.</span></p><h2><span>What the tool does</span></h2><p><span>At the heart of PAS is a multilingual monitoring and analysis system. It monitors short-form video content from platforms like YouTube Shorts, TikTok and Instagram Reels and extracts claims using speech-to-text and text-on-screen recognition tools developed by Full Fact. These claims are clustered into narratives - emotive and persuasive storylines that cut across platforms and languages - using an AI extraction system developed by Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>.</span></p><p><span>European fact checkers using the tool can:</span></p><ul class="list-disc"><li><p><span>Search and filter claims and narratives by date, topic, language, entity or virality.</span></p></li><li><p><span>Receive alerts when harmful and fast-growing narratives emerge in their region.</span></p></li><li><p><span>Track narratives over time to see how they evolve and spread.</span></p></li></ul><p><span>Behind the scenes, the tool uses large language models and vector databases to encode, cluster and classify claims. But crucially, fact checkers remain in the loop. Their expertise validates outputs, ensures accuracy and contextualises findings.</span></p><h2><span>A collaborative European effort</span></h2><p><span>PAS is not just a piece of technology. It’s a collaborative infrastructure for the fact checking community. EFCSN and its members have developed a shared definition and methodology for prebunking, so organisations across Europe can align on best practices and build materials that are more consistent, timely and impactful. The multilingual monitoring and analysis system informs their editorial decisions and helps to allocate resources where they are needed most.</span></p><p><span>The first version of the tool supports five European languages. By next year, we will expand this to more than 20 languages.</span></p><h2><span>Why this matters</span></h2><p><span>Every false claim that goes unchallenged chips away at trust in democracy, public health and science. By shifting from a reactive to a proactive model of prebunking, we can give fact checkers and the public a fighting chance.</span></p><p><span>The work of tackling misinformation will always need human judgment, local expertise and cross-border collaboration. With Prebunking at Scale, we’re adding a new tool to that fight.</span></p><p></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/prebunking/"><em>The Prebunking at Scale project </em></a><em>is made possible with the support of the European Fact-Checking Standards Network.</em><br></p>]]></description>
      <link>https://maldita.es/nosotros/20251105/prebunking-at-scale-the-next-chapter-for-european-factchecking/</link>
      <pubDate>Wed, 05 Nov 2025 10:00:35 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/10/69023f2942431prebunking-at-scale-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Maldita.es y otros diez verificadores continúan con la segunda parte de ATAFIMI: un proyecto para analizar campañas de desinformación transfronterizas]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> y otros diez verificadores de Europa del Este, Eurasia, los Balcanes y América Latina se han unido para identificar y analizar campañas de desinformación que circulan en distintos países y en diferentes idiomas.&nbsp;</span></p><p><span>Se trata de la segunda fase </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20230920/alianza-verificadores-eurasia-europa-americalatina/"><span>de un proyecto</span></a><span>, financiado por la Fundación Nacional para la Democracia (National Endowment for Democracy, NED), que desarrolló su primera etapa entre 2023 y 2024 con la participación de verificadores de Georgia, Lituania, Ucrania, Argentina, México, Venezuela y Colombia. En este nuevo período se unen verificadores de dos países adicionales: Bosnia y Herzegovina y Serbia.</span></p><p><span>Durante dos años (hasta marzo de 2027), las once organizaciones que participan en esta segunda fase trabajarán en la identificación de campañas de desinformación transfronterizas mediante los contenidos que reciben a través de sus chatbots en plataformas de mensajería como WhatsApp, Facebook Messenger o Telegram, o detectan en redes sociales. Mediante el monitoreo de un sistema centralizado, que actúa como repositorio y permite a las organizaciones registrar contenido desinformativo, ver su circulación en los diferentes países y analizar su evolución, así como sus narrativas, los verificadores podrán hacer frente a esas campañas de una forma más efectiva.</span></p><p><span>En la primera fase del proyecto, las organizaciones involucradas publicaron tres investigaciones:</span></p><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditateexplica/20240627/zelenski-dinero-occidente-campanas-desinformacion-transfronterizas/"><span>Zelenski y su familia el dinero de Occidente en bienes de lujo o despilfarrando los recursos de la guerra: las campañas de desinformación transfronterizas que circulan desde Georgia a Argentina</span></a></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditateexplica/20240801/pizzagate-mujer-zelenski-transfonterizos-mujeres-ninos/"><span>El Pizzagate de la mujer de Zelenski y otros bulos transfronterizos que usan a mujeres y niños para deslegitimar a Ucrania</span></a></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditateexplica/20241129/desinformacion-contradictoria-rusia-occidente-ucrania/"><span>"Los países de Occidente atacan a Rusia" y a su vez "retiran la ayuda a Ucrania": campañas de desinformación contrapuestas desde Europa hasta América Latina</span></a></p></li></ul><p><span>Este se presentó en diferentes eventos en países como España o Georgia y permitió a las organizaciones hacer frente a los amplios y diversos desafíos en la protección de la integridad informativa, mediante la promoción de una mayor colaboración entre fact-checkers de distintos países.</span></p><h2><br><strong><span>¿Qué hará la Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span>?</span></strong></h2><p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> coordinará el proyecto, que cuenta con actividades como: el monitoreo de la desinformación en el sistema centralizado, la producción de investigaciones periodísticas y otros reportes de análisis de las campañas de desinformación y del cumplimiento de las plataformas y la organización de formaciones en FIMI, TTPs o políticas públicas. También desarrollará, a través de Botalite, un chatbot para las dos organizaciones de Serbia y otro para la organización de Bosnia.</span></p><h2><strong><span>¿Quiénes participan en ATAFIMI?</span></strong></h2><p></p><ul class="list-disc"><li><p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> (España)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.stopfake.org/ru/glavnaya-2/"><span>StopFake</span></a><span> (Ucrania)</span></p></li></ul><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://mythdetector.com/en/"><span>Myth Detector</span></a><span> (Georgia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.delfi.lt/en/business/delfis-lie-detector-the-best-fact-checking-success-story-in-europe-to-be-introduced-at-international-facebook-event-86237847"><span>Delfi </span></a><span>(Lituania)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://zastone.ba/en/"><span>Zašto ne</span></a><span> (Bosnia and Herzegovina)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.raskrikavanje.rs/"><span>RasKRIKavanje</span></a><span> (Serbia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://fakenews.rs/"><span>FakeNews Tragač</span></a><span> (Serbia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://chequeado.com/"><span>Chequeado</span></a><span> (Argentina)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://verificado.com.mx/"><span>Verificado MX</span></a><span> (México)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cazadoresdefakenews.info/"><span>Cazadores de Fake News</span></a><span> (Venezuela)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lasillavacia.com/"><span>La Silla Vacía</span></a><span> (Colombia)</span></p></li></ul><p></p><p></p>]]></description>
      <link>https://maldita.es/nosotros/20251104/atafimi-campanas-desinformacion-transfronterizas/</link>
      <pubDate>Tue, 04 Nov 2025 12:14:10 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/6909de972e933portada-atafimi-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Desinformación, riesgo y mitigación: nuestra contribución a la Junta de Servicios Digitales y a la Comisión Europea]]></title>
      <description><![CDATA[<p>Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> ha contribuido al <strong>primer informe anual sobre los riesgos sistémicos más destacados y recurrentes en las plataformas online y motores de búsqueda de gran tamaño</strong>. Este documento debe elaborarse cada año por la Junta Europea de Servicios Digitales, compuesto por los reguladores digitales de cada Estado miembro, en colaboración con la Comisión Europea, tal como establece la <a target="_blank" rel="noopener noreferrer nofollow" href="https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32022R2065">Ley de Servicios Digitales</a> (<em>DSA</em>, por sus siglas en inglés).</p><p>El informe se centra en identificar no solo los riesgos más graves derivados del diseño y funcionamiento de estos servicios online, sino también las mejores prácticas disponibles para mitigarlos, ya que la DSA establece que las plataformas y motores de búsqueda de gran tamaño deben evaluar correctamente los riesgos sistémicos y poner en marcha “medidas de mitigación razonables, proporcionadas y efectivas” específicamente adaptadas a ellos.</p><p>En nuestra aportación, que se puede leer íntegramente en inglés a continuación, describimos cómo la desinformación puede ser particularmente perjudicial para la seguridad y el bienestar de los europeos en distintos tipos de situaciones, incluyendo desastres naturales y otras emergencias, así como elecciones. También argumentamos que la desinformación médica y científica relacionada con la salud genera daños individuales y sociales profundos e inmediatos, mientras que a menudo es <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/timo/20250109/entrevista-pedro-cavadas-producto-articulaciones/">amplificada y monetizada</a> por las plataformas.</p><p>Sobre el contenido ilegal, advertimos acerca de las frecuentes violaciones de las leyes españolas, incluidas aquellas que protegen los derechos fundamentales en línea o las normativas publicitarias que prohíben los <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/timo/20240516/76-million-attempts-scam-x-using-celebrities/">fraudes</a>. En Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> hemos documentado extensamente cómo el contenido ilegal es fácil de encontrar y rara vez se elimina, <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/investigaciones/20250619/report-meta-posts-scam-facebook-dsa/">incluso después de haber sido señalado específicamente a la plataforma</a>.</p><h2>Mitigación de riesgos en plataformas y buscadores</h2><p>En cuanto a las medidas de mitigación de riesgos por parte de las plataformas y los motores de búsqueda, nuestra aportación explica por qué las intervenciones que añaden contexto, como las etiquetas de verificación o los paneles informativos, son especialmente eficaces para empoderar a los usuarios cuando se encuentran con desinformación, en lugar de eliminar el contenido. También destacamos que las Notas de la Comunidad pueden ser una herramienta útil, pero que <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250120/community-notes-factcheckers-together-work/">su implementación actual en plataformas como X hace imposible que resulten efectivas</a> contra la desinformación.</p><p>Por último, nuestra contribución identifica varios factores de riesgo, entre ellos las verificaciones azules de X, la difusión de desinformación a través de anuncios en las plataformas y los sistemas automatizados de moderación. Para cada una de estas categorías ofrecemos evidencias de apoyo, así como estudios de caso de Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> y de otras organizaciones. Nuestra aportación completa está disponible a continuación.</p><p></p><object data="https://files.maldita.es/maldita/uploads/2025/11/6908b4c3ca3a9systemic-risks-in-the-eu-and-on-measures-for-their-mitigation-pdf.pdf#toolbar=0" type="application/pdf" width="100%" height="600px"><p>Este navegador no soporta mostrar archivos Document. : <a href="https://files.maldita.es/maldita/uploads/2025/11/6908b4c3ca3a9systemic-risks-in-the-eu-and-on-measures-for-their-mitigation-pdf.pdf#pagemode=none&amp;toolbar=0&amp;statusbar=0&amp;messages=0&amp;navpanes=0">Descárgalo para poder verlo.</a></p></object>]]></description>
      <link>https://maldita.es/nosotros/20251103/contribucion-informe-riesgo-dsa-junta-comision-dsa/</link>
      <pubDate>Mon, 03 Nov 2025 14:59:51 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/6908b511f076ccontribucion-dsa-junta-comision-riesgos-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Disinformation, risk, and mitigation: our input to the Board of Digital Services and the European Commission]]></title>
      <description><![CDATA[<p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> has contributed to the first ever </span><strong><span>annual report on the most prominent and recurrent systemic risks in the very large online platforms and search engines</span></strong><span>. The document must be produced every year by the European Board of Media Services, comprising the digital regulators in every member state, in collaboration with the European Commission as established by </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32022R2065"><span>the Digital Services Act (DSA)</span></a><span>.</span></p><p><span>The report is focused on identifying not only the gravest risks stemming from the design and functioning of those online services, but also the best practices available to mitigate them, since DSA establishes that very large online platforms and search engines must correctly assess systemic risks and put in place “reasonable, proportionate and effective mitigation measures” specifically tailored to them.</span></p><p><span>In our contribution, which you can read in full below, we outline how dis/misinformation can be particularly harmful to the Europeans’ security and well-being during different kinds of situations including natural disasters and other emergencies, or elections. We also argue that medical and scientific health-related dis/misinformation creates profound and immediate individual and social harm, while often being </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/timo/20250109/entrevista-pedro-cavadas-producto-articulaciones/"><span>amplified and monetized</span></a><span> by platforms.</span></p><p><span>On illegal content, we warn about frequent violations of the Spanish laws including those protecting fundamental rights online or the ad regulations that prohibit </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/timo/20240516/76-million-attempts-scam-x-using-celebrities/"><span>scams</span></a><span>. In Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, we have documented extensively how illegal content is easy to be found and seldom removed </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/investigaciones/20250619/report-meta-posts-scam-facebook-dsa/"><span>even after being specifically flagged to the platform</span></a><span>.</span></p><h2><span>Mitigating risk in platforms and search engines</span></h2><p><span>On the side of risk mitigation measures by the platforms and search engines, our contribution explains why context-adding interventions such as fact-checking labels or information panels are particularly effective to empower users when they encounter misinformation, rather than removals of content. We also emphasize how Community Notes might be a useful tool, but how </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250120/community-notes-factcheckers-together-work/"><span>its current implementation in platforms such as X make it impossible for it to be effective</span></a><span> against misinformation.</span></p><p><span>Finally, our contribution also identifies several risk factors including X’s blue checks, misinformation deployment through platform ads, and automated moderation systems. For each of those categories we offer supporting evidence as well as case studies by Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> and others. Our full contribution is available below.</span><br></p><p></p><object data="https://files.maldita.es/maldita/uploads/2025/11/6908b360c49e0systemic-risks-in-the-eu-and-on-measures-for-their-mitigation-pdf.pdf#toolbar=0" type="application/pdf" width="100%" height="600px"><p>Este navegador no soporta mostrar archivos Document. : <a href="https://files.maldita.es/maldita/uploads/2025/11/6908b360c49e0systemic-risks-in-the-eu-and-on-measures-for-their-mitigation-pdf.pdf#pagemode=none&amp;toolbar=0&amp;statusbar=0&amp;messages=0&amp;navpanes=0">Descárgalo para poder verlo.</a></p></object><p></p>]]></description>
      <link>https://maldita.es/nosotros/20251103/input-risk-report-first-board-commission-dsa/</link>
      <pubDate>Mon, 03 Nov 2025 14:53:09 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/11/6908b31c053cccontribution-board-first-report-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Un país entero no se va a poner tan fácilmente de acuerdo para engañarte: cómo usamos el ‘argument checking’ contra la desinformación de la DANA]]></title>
      <description><![CDATA[<p><span>La DANA del 29 de octubre de 2024 marcó un hito para la desinformación en España. No sólo el </span><strong><span>volumen de contenidos </span></strong><span>desinformadores aumentó considerablemente, sino que estos </span><strong><span>apuntaron a instituciones concretas</span></strong><span>: la Guardia Civil, AEMET, Cruz Roja… Tanto fue así que en</span><em><span> </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span> </span></em><span>tuvimos que buscar nuevas formas de combatirla, añadiendo a los datos el uso de argumentos lógicos que mostraran la incoherencia de algunas desinformaciones publicadas.</span></p><p><span>En una crisis donde reinan emociones negativas como la rabia o el desconcierto, el </span><em><span>argument checking</span></em><span> </span><strong><span>apela a la capacidad de pararse y razonar</span></strong><span>. Tras descubrir su necesidad en un contexto de urgencia, ahora estamos estudiando esta nueva estrategia de lucha contra la desinformación con ayuda de organizaciones académicas.</span></p><div class="raw-html-node" data-raw-html="" data-raw-html-content="&lt;span class=&quot;codex-editor__fake-cursor&quot; data-mutation-free=&quot;true&quot;&gt;&lt;/span&gt;&lt;div style=&quot;background: #25D366;

    padding: 15px;border-radius: 20px;

    margin-top: 20px;

    margin-bottom: 20px;&quot;&gt;

&lt;a href=&quot;https://bit.ly/3EGa2ju&quot;&gt;&lt;p style=&quot;text-align: center;

    color: black;

    

    font-size: 21px;margin-bottom:0;&quot;&gt;📲 ¡Pincha aquí y sigue el canal de WhatsApp de Maldita.es &lt;br&gt; para que no te la cuelen!&lt;/p&gt; &lt;/a&gt;

&lt;/div&gt;"><span class="codex-editor__fake-cursor" data-mutation-free="true"></span><div style="background: #25D366;

    padding: 15px;border-radius: 20px;

    margin-top: 20px;

    margin-bottom: 20px;">

<a href="https://bit.ly/3EGa2ju"><p style="text-align: center;

    color: black;

    

    font-size: 21px;margin-bottom:0;">📲 ¡Pincha aquí y sigue el canal de WhatsApp de Maldita.es <br> para que no te la cuelen!</p> </a>

</div></div><h2><span>10 motivos para no creer que estaban ocultando muertos en los parkings de Bonaire y MN4 o el Túnel de Alfafar</span></h2><p><span>Una de las principales narrativas tras la DANA decía que en lugares cerrados como el parking de Bonaire, el de MN4 o el túnel de Alfafar </span><strong><span>habían quedado atrapadas muchas personas</span></strong><span> durante la inundación y los cuerpos de seguridad que participaban en las labores de rescate </span><strong><span>estaban ocultando sus cuerpos</span></strong><span>.</span></p><p><span>Antes de la entrada de los profesionales en los aparcamientos, la idea de que se encontrarían fallecidos podría tener sentido, teniendo en cuenta que muchas personas no esperaban la inundación y que eran lugares con salida complicada. Sin embargo, aunque distintos cuerpos policiales y personal implicado</span><strong><span> indicaron que no habían encontrado ningún cuerpo </span></strong><span>en Bonaire, MN4 ni el túnel de Alfafar, los contenidos insistieron y dijeron que se estaba ocultando información y se estaban ocultando muertos.</span></p><p><span>En su momento aportamos </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241110/10-razones-audios-anonimos/"><span>10 razones para no creerlos</span></a><span>, que resumimos aquí:</span></p><ul class="list-disc"><li><p><span>El </span><strong><span>foco mediático</span></strong><span> estuvo puesto en esos tres lugares. De haberse encontrado cuerpos, se habría grabado.</span></p></li><li><p><span>Policías, bomberos, militares de la UME, autoridades del PP, del Gobierno (PSOE y Sumar), del poder judicial… eran necesarios para la inspección de los aparcamientos y tienen </span><strong><span>distintos intereses</span></strong><span>. No tiene sentido que ninguno de ellos denunciara la situación, ni siquiera de forma anónima, mostrando fotos o vídeos.</span></p></li><li><p><span>Por otro lado, si hubiera habido fallecidos, algunas de las </span><strong><span>muchas personas implicadas</span></strong><span> en la retirada de los cadáveres (conductores de camiones, trabajadores de morgues y&nbsp; crematorios…) habrían levantado la voz.</span></p></li><li><p><span>¿Hay muertos en estos tres lugares, pero no familiares denunciando públicamente su desaparición, </span><strong><span>aportando nombres y apellidos de los fallecidos</span></strong><span>?</span></p></li></ul><h2><span>Se tiran presas que habrían detenido la inundación… ¿pero no se sabe cuáles?</span></h2><p><span>Otra de las grandes narrativas difundidas durante la DANA es que la inundación fue tan grave porque </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241111/vaso-agua-valencia-presas/"><span>en los últimos años</span></a><span> se habían </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/clima/20241031/presas-embalses-derribados-dana-valencia/"><span>derribado presas y embalses</span></a><span> en los cauces afectados por las lluvias. Las barreras fluviales derribadas en España no son grandes presas ni embalses, son</span><strong><span> pequeñas barreras</span></strong><span> incapaces de retener una inundación, y </span><strong><span>en la zona de la DANA no se había derribado ninguna</span></strong><span>.</span></p><p><span>Pero, sobre todo, si alguien asegura con firmeza que se han derribado presas lo suficientemente grandes para parar la fuerza del agua, </span><strong><span>podría señalar fácilmente cuáles</span></strong><span>.&nbsp; Los embalses y presas son grandes obras de ingeniería que tardan años en construirse y desmantelarse: de haberse eliminado algunas en los pueblos al sur de Valencia, habría algún rastro en Internet que permita identificarlas. Sin embargo, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/clima/20241031/presas-embalses-derribados-dana-valencia/"><span>no suelen darse nombres</span></a><span> o, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/clima/20241030/desinformacion-dana-valencia-cuatro-pantanos/"><span>cuando se aportan</span></a><span>, señalan embalses que están en funcionamiento hoy en día.</span></p><div class="raw-html-node" data-raw-html="" data-raw-html-content="&lt;div style=&quot;background: #fae251; padding: 15px; border-radius: 20px; margin-top: 20px; margin-bottom: 20px;&quot;&gt;
&lt;p style=&quot;text-align: center; color: black;  font-size: 21px; margin-bottom: 0;&quot;&gt; &lt;a href=&quot;https://api.whatsapp.com/send?phone=34644229319&amp;text=&amp;source=&amp;data=&amp;app_absent=&quot;&gt; ¿Crees que te ha llegado un bulo? Verifica en nuestro chatbot de WhatsApp (+34 644 229 319)&lt;/a&gt;
&lt;/p&gt;
&lt;/div&gt;"><div style="background: #fae251; padding: 15px; border-radius: 20px; margin-top: 20px; margin-bottom: 20px;">
<p style="text-align: center; color: black;  font-size: 21px; margin-bottom: 0;"> <a href="https://api.whatsapp.com/send?phone=34644229319&amp;text=&amp;source=&amp;data=&amp;app_absent="> ¿Crees que te ha llegado un bulo? Verifica en nuestro chatbot de WhatsApp (+34 644 229 319)</a>
</p>
</div></div><h2><span>“No te dejes engañar”: razonar contra la desinformación en Instagram y TikTok</span></h2><div class="raw-html-node" data-raw-html="" data-raw-html-content="&lt;blockquote class=&quot;tiktok-embed&quot; cite=&quot;https://www.tiktok.com/@malditobulo/video/7436416830522002720&quot; data-video-id=&quot;7436416830522002720&quot; style=&quot;max-width: 605px;min-width: 325px;&quot; &gt; &lt;section&gt; &lt;a target=&quot;_blank&quot; title=&quot;@malditobulo&quot; href=&quot;https://www.tiktok.com/@malditobulo?refer=embed&quot;&gt;@malditobulo&lt;/a&gt; No te dejes engañar. Estás desinformaciones están potenciadas por las mentiras orquestadas y coordinadas para que dejes de confiar. Frena y usa el sentido común. Compártelo con quien creas que necesite oírlo. &lt;a title=&quot;dana&quot; target=&quot;_blank&quot; href=&quot;https://www.tiktok.com/tag/dana?refer=embed&quot;&gt;#dana&lt;/a&gt; &lt;a title=&quot;valencia&quot; target=&quot;_blank&quot; href=&quot;https://www.tiktok.com/tag/valencia?refer=embed&quot;&gt;#valencia&lt;/a&gt; &lt;a target=&quot;_blank&quot; title=&quot;♬ sonido original - Maldito Bulo&quot; href=&quot;https://www.tiktok.com/music/sonido-original-7436416963524774688?refer=embed&quot;&gt;♬ sonido original - Maldito Bulo&lt;/a&gt; &lt;/section&gt; &lt;/blockquote&gt; &lt;script async src=&quot;https://www.tiktok.com/embed.js&quot;&gt;&lt;/script&gt;"><blockquote class="tiktok-embed" cite="https://www.tiktok.com/@malditobulo/video/7436416830522002720" data-video-id="7436416830522002720" style="max-width: 605px;min-width: 325px;"> <section> <a target="_blank" title="@malditobulo" href="https://www.tiktok.com/@malditobulo?refer=embed">@malditobulo</a> No te dejes engañar. Estás desinformaciones están potenciadas por las mentiras orquestadas y coordinadas para que dejes de confiar. Frena y usa el sentido común. Compártelo con quien creas que necesite oírlo. <a title="dana" target="_blank" href="https://www.tiktok.com/tag/dana?refer=embed">#dana</a> <a title="valencia" target="_blank" href="https://www.tiktok.com/tag/valencia?refer=embed">#valencia</a> <a target="_blank" title="♬ sonido original - Maldito Bulo" href="https://www.tiktok.com/music/sonido-original-7436416963524774688?refer=embed">♬ sonido original - Maldito Bulo</a> </section> </blockquote> <script async="" src="https://www.tiktok.com/embed.js"></script></div><p><span>En</span><em><span> </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span> </span></em><span>llevamos el</span><em><span> argument checking</span></em><span> a </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.instagram.com/reel/DCRkkADKIHF/"><span>Instagram</span></a><span> y </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241111/bulos-dana-valencia-tiktok/"><span>TikTok</span></a><span>, dos de las redes sociales donde la desinformación se movió con mayor facilidad. En TikTok, centenares de vídeos desinformadores </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241111/bulos-dana-valencia-tiktok/"><span>sumaban millones de visualizaciones</span></a><span> (y muchos siguen publicados </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/politicas-publicas/20251028/youtube-tiktok-desinformacion-dana/"><span>sin señalarse con una advertencia</span></a><span>). Aunque la plataforma recomendaba a los usuarios informarse mediante “fuentes oficiales”, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/10/68fa0135472c9.pdf"><span>no marcaba los vídeos</span></a><span> que difundían bulos ya verificados contra la agencia meteorológica española. </span></p><p><span>El vídeo combinaba la verificación —contraponer datos y hechos a las narrativas desinformadoras— con la argumentación para transmitir un mensaje completo, consiguiendo </span><strong><span>más de 200.000 visualizaciones en TikTok</span></strong><span> y </span><strong><span>más de 400.000 en Instagram</span></strong><span>. </span></p><h2><span>Un ‘argument checking’ junto al mundo académico</span></h2><p><span>En </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> estamos trabajando con la Universidad de Navarra para estudiar las posibilidades del </span><em><span>argument checking</span></em><span> con ayuda de la comunidad académica y diseñar una metodología para complementar la verificación de datos y hechos con argumentos. Con el proyecto Argument Checking vs Disinformation Content during Climate Emergencies and Crises (AC/DC) seleccionamos narrativas susceptibles de abordar mediante el razonamiento, elaboramos argumentos y probamos distintos prototipos y formatos que después analiza una muestra de público.&nbsp;</span></p><p><span>La idea es incorporar los resultados al trabajo diario de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> para usar la argumentación cuando sea necesaria de la forma más efectiva posible, siempre como complemento a la verificación.</span></p><p><em>Esta publicación ha sido elaborada con el apoyo del Fondo Europeo de Medios e Información (EMIF), gestionado por la Fundación Calouste Gulbenkian. El contenido de esta publicación es responsabilidad exclusiva de </em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em>Maldita.es</em></a><em> y no refleja necesariamente las opiniones del EMIF ni de la Fundación Calouste Gulbenkian. </em><br></p>]]></description>
      <link>https://maldita.es/nosotros/20251028/dana-desinformacion-argument-checking/</link>
      <pubDate>Tue, 28 Oct 2025 14:05:21 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/10/68ffa7f78131bdana-acdc-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Protecting information integrity during natural disasters: the DSA case for platforms to address disinformation targeting meteorological agencies]]></title>
      <description><![CDATA[<p><span>National weather services are the society’s first line of defense against extreme weather events. They are tasked with sounding the alarm about incoming potential natural catastrophes and offering expert advice to the public on which precautions to take during such emergencies. However, since those institutions often serve as well as spokespeople for the scientific evidence on climate change, </span><strong><span>they are frequent targets of disinformation campaigns</span></strong><span> and their scientists often receive a significant amount of online harassment.&nbsp;</span></p><p><span>Those attacks inevitably diminish the national weather services’ credibility and undermine public trust in their alerts, thus endangering lives and property during natural disasters when a part of the public chooses not to heed their advice after being consistently misled into thinking their meteorological agencies are prone to exaggeration or manipulation. As the </span><strong><span>sustained disinformation campaigns</span></strong><span> against these institutions often take place at the major digital platforms, it is worth noting that those </span><strong><span>companies have a legal obligation to address them</span></strong><span>, at least in the European Union.</span></p><h2><span>A risk and a failure</span></h2><p><span>The substantial loss of confidence in extreme weather alerts fits neatly in the category of “actual or foreseeable negative effects on public security and public health” that the EU Digital Services Act establishes to identify a systemic risk stemming from the use and design of the major digital platforms and search engines. As such, the relevant providers must put in place specific “proportionate and effective mitigation measures” to address such risk, for example by adding information panels or fact-checking labels with contextual information when users see disinformation. However, according to our research, few of the most prominent platforms are currently up to the task.&nbsp;</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="http://maldita.es"><span>Fundación </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> has analyzed 169 posts and videos from the last six years that disseminated misinformation about AEMET, the Spanish Meteorological State Agency, in five major digital platforms (X/Twitter, Facebook, Instagram, TikTok and YouTube). While the full results show variation across platforms, </span><strong><span>only 8% of the videos and posts display any kind of visible label, community note, or information panel</span></strong><span> that might alert users of manipulative or false content.&nbsp;</span></p><p><span>A tweet with over 4 million views that </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20240905/AEMET-baja-umbrales-temperatura/"><span>falsely accused the agency of lowering the temperature threshold to be able to declare more heat alerts</span></a><span> had no visible community note, despite several users proposing notes that debunked it. A YouTube video with 235.000 reproductions </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241030/radar-aemet-valencia-dana/"><span>said AEMET did not have a working radar in Valencia</span></a><span> when flash floods killed over 200 people in October 2024, a lie that the channel also used to ask for economic donations. Many more have seen the agency </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20180209/no-no-es-cierto-que-4-trabajadores-de-la-aemet-hayan-confesado-en-un-informe-a-la-union-europea-que-espana-esta-siendo-rociada-con-dioxido-de-plomo/"><span>“admitting” the artificial manipulation of the weather</span></a><span> or </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241031/bulos-desinformaciones-desacreditar-atacar-aemet/"><span>fabricating evidence of rising temperatures</span></a><span>.</span></p><p><span>Similar viral claims have been debunked in France </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://factuel.afp.com/doc.afp.com.33CE3R7"><span>about Météo-France</span></a><span>, in Germany </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://correctiv.org/faktencheck/2023/10/26/deutscher-wetterdienst-verlegte-messstationen-nicht-gezielt-um-durchschnittstemperaturen-waermer-erscheinen-zu-lassen/"><span>about Deutscher Wetterdienst</span></a><span> or in Poland </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://demagog.org.pl/fake_news/czy-siec-5g-sluzy-do-manipulowania-pogoda-to-nieprawda/"><span>about IMGW-PIB</span></a><span>, to name just three examples of national weather services facing disinformation attacks across the European Union. However, the trend extends globally with documented campaigns in different countries, particularly in the United States where the attacks go not only </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.noaa.gov/news/fact-check-debunking-weather-modification-claims"><span>against the weather service</span></a><span> but also </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.politico.com/news/2024/10/08/fima-disinformation-hurricane-helene-response-00182841"><span>target disaster relief agencies such as FEMA</span></a><span>, with </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.isdglobal.org/digital_dispatches/russian-propaganda-exploits-us-hurricane-response-to-undermine-fema-and-ukraine-support/"><span>involvement of foreign actors</span></a><span>.&nbsp;</span></p><h2><span>A sound strategy to deal with systemic risk under DSA</span></h2><p><span>When designing an effective risk mitigation strategy in this particular field, platforms must keep several important considerations in mind:&nbsp;</span></p><ol class="list-decimal"><li><p><span>As much as they play a crucial role, the meteorological agencies are also government institutions that have to be open to a particularly high level of public scrutiny and criticism, so any risk mitigation strategy </span><strong><span>cannot focus on removals of content</span></strong><span> unless it is illegal (i.e. threats, impersonation, fraud, etc.) to not fall into the censorship narrative.&nbsp;</span></p></li><li><p><span>That said, platforms and search engines can and should employ contextual interventions to mitigate disinformation risks by </span><strong><span>empowering users through fact-checking labels or other similar visual cues </span></strong><span>at the time they are engaging with false or misleading content, so they can make their own decisions.</span></p></li><li><p><span>As the role of these agencies is most important </span><strong><span>during extreme weather events</span></strong><span>, platforms and search engines must ensure their public service information during those periods is highlighted in front of the users that need to see it, for example based on its location, through the </span><strong><span>deployment of information panels</span></strong><span> or other mechanisms.</span></p></li></ol><p><span>Having those principles in mind, it should be relatively uncomplicated for platforms to build robust risk mitigation strategies that fully align with the legal standards in the DSA, namely that those measures be reasonable, proportionate, effective, and tailored to the specific systemic risks the service presents.&nbsp;</span></p><p><span>A systematic approach that focuses on </span><strong><span>showcasing contextual information rather than removing content</span></strong><span> is reasonable and proportionate, since such a strategy is entirely respectful of the users’ freedom of speech while aptly mitigating the risk of mis/disinformation, as indicated in the particular context of DSA by the European Commission in its </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ec.europa.eu/newsroom/repository/document/2024-13/C_2024_2121_1_EN_annexe_acte_autonome_cp_part1_v3_tpHHZgYyBGFMF8J5rE0OR1GdOis_103911.pdf"><span>guidelines on the mitigation of systemic risks for electoral processes</span></a><span>.&nbsp;</span></p><p><span>Similar strategies have been tested and implemented in all kinds of different services and </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/politicas-publicas/20240126/fact-checking-works/"><span>proved effective</span></a><span> across different risk profiles, both reducing the dissemination of dis/misinformation and reducing belief in falsehoods, but also boosting the capacity of dis/misinformation detection by platforms when compared with other singular approaches such as </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>traditional content moderation</span></a><span> or </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>crowdsourced fact-checking</span></a><span>.</span></p><p><span>The deployment of information panels to support these agencies’ reach during extreme weather events is also a perfectly reasonable and proportionate risk mitigation intervention, as most platforms and search engines have implemented similar automated displays of third-party information at some point, for example </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://misinforeview.hks.harvard.edu/wp-content/uploads/2020/05/FORMATTED_article_searchenginescovid19.pdf"><span>during the COVID-19 pandemic</span></a><span>.&nbsp;</span></p><p><strong><span>To provide users with information about extreme weather events based on their location</span></strong><span> is not only feasible, it is also common for other prominent information providers that routinely do it and some are required to by law. That is the case of Media service providers under the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.boe.es/buscar/act.php?id=BOE-A-2015-7730#:~:text=8.%20Los%20medios,de%20protecci%C3%B3n%20civil."><span>Spanish Civil Protection Law of 2015</span></a><span> and also of telecom companies that carry </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.weather.gov/wrn/wea"><span>public service alerts</span></a><span> to cell phones depending on location in many countries. To our knowledge, not one designated very large online platform or search engine displayed information panels, for example, to users in Valencia about AEMET’s alerts regarding the incoming floods that ended up leaving over 200 deaths in October 2024.&nbsp;</span></p><p><span>In Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> we know disinformation often harms and even kills, and there are few situations when factual information is more precious than during catastrophes and their immediate aftermath. Weather forecasts and civil protection alerts are literal lifelines in those situations and they need to command the most attention and trust from the public to be effective.&nbsp;</span></p><p><span>The national weather services themselves are responsible for keeping a public profile that allows them to serve the public best when catastrophes hit, but </span><strong><span>very large online platforms and search engines have to do their part too by ensuring their policies and the way they are enforced are up to their legal and ethical obligation in this respect</span></strong><span>.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20251023/dsa-weather-agencies-disinformation-platforms/</link>
      <pubDate>Thu, 23 Oct 2025 13:01:44 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/10/68f750ddd9e7dweather-agencies-disinformation-dsa-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Proteger la integridad informativa ante los desastres naturales: el papel de la DSA para que las plataformas aborden la desinformación contra las agencias meteorológicas]]></title>
      <description><![CDATA[<p><span>Los servicios meteorológicos de cada país son la primera línea de defensa de la sociedad ante fenómenos metorológicos extremos. Su misión es alertar sobre posibles catástrofes naturales y ofrecer asesorar al público sobre las precauciones a tomar durante esas emergencias. Sin embargo, dado que estas instituciones también suelen comunicar públicamente sobre la evidencia científica sobre el cambio climático, eso les convierte en </span><strong><span>blanco frecuente de campañas de desinformación</span></strong><span> y hace que sus científicos sean objeto de acoso en el ámbito digital.</span></p><p><span>Estos ataques inevitablemente minan la credibilidad de las agencias meteorológicas y socavan la confianza pública en sus alertas, poniendo así en peligro vidas y bienes materiales cuando sucede un desastre natural, ya que una parte de la población puede ignorar sus consejos si ha sido manipulada para creer que esas instituciones son propensas a la exageración o la mentira. Dado que las </span><strong><span>constantes campañas de desinformación</span></strong><span> contra ellas se dan en las principales plataformas digitales, </span><strong><span>esas empresas tienen la obligación legal de abordarlas</span></strong><span>, al menos en la Unión Europea.</span></p><h2><span>Un riesgo y un fracaso</span></h2><p><span>La pérdida de confianza en las alertas sobre potenciales desastres naturales encaja perfectamente en la categoría de «efectos negativos reales o previsibles sobre la seguridad pública [o] en la protección de la salud pública» que el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32022R2065"><span>Reglamento de Servicios Digitales de la UE</span></a><span> (</span><em><span>Digital Services Act</span></em><span> o DSA) establece para identificar un riesgo sistémico derivado del uso y el diseño de las principales plataformas digitales y motores de búsqueda. Por ello, los obliga a establecer «medidas de reducción de riesgos razonables, proporcionadas y efectivas» como por ejemplo añadir paneles informativos o etiquetas de verificación de datos cuando los usuarios vean desinformación. A pesar de esto, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/10/68fa0135472c9.pdf"><span>según nuestra investigación</span></a><span>, pocas de las principales plataformas lo hacen.</span></p><p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha analizado 169 publicaciones y vídeos de los últimos seis años que difundían información errónea sobre AEMET, la Agencia Estatal de Meteorología de España, en cinco importantes plataformas digitales (X/Twitter, Facebook, Instagram, TikTok y YouTube). Los </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/10/68fa0135472c9.pdf"><span>resultados completos</span></a><span> muestran diferencias entre las distintas plataformas, pero en global </span><strong><span>sólo un 8% de los videos y publicaciones muestran algún tipo de etiqueta visible, nota de la comunidad o panel de información</span></strong><span> que pueda alertar a los usuarios sobre contenido manipulador o falso.</span></p><p><span>Un ejemplo es el de un tweet con más de 4 millones de visualizaciones que </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20240905/AEMET-baja-umbrales-temperatura/"><span>acusó falsamente a la AEMET de rebajar el umbral de temperatura necesario para declarar una alerta por calor para que parecieran más frecuentes</span></a><span>. No tenía ninguna nota de la comunidad visible en la comunidad, a pesar de que varios usuarios las habían propuesto. También un vídeo de YouTube con 235.000 reproducciones </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241030/radar-aemet-valencia-dana/"><span>decía que AEMET no tenía un radar operativo durante la DANA de Valencia</span></a><span> cuando las inundaciones dejaron más de 200 fallecidos en octubre de 2024, una mentira que el canal también utilizó para solicitar donaciones económicas. Muchos más todavía han visto a la agencia </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20180209/no-no-es-cierto-que-4-trabajadores-de-la-aemet-hayan-confesado-en-un-informe-a-la-union-europea-que-espana-esta-siendo-rociada-con-dioxido-de-plomo/"><span>“admitir” la manipulación artificial del clima</span></a><span> o </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241031/bulos-desinformaciones-desacreditar-atacar-aemet/"><span>“fabricar” pruebas sobre el aumento de las temperaturas</span></a><span>.</span></p><p><span>Contenidos virales similares han sido verificados en Francia </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://factuel.afp.com/doc.afp.com.33CE3R7"><span>sobre Météo-France</span></a><span>, en Alemania </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://correctiv.org/faktencheck/2023/10/26/deutscher-wetterdienst-verlegte-messstationen-nicht-gezielt-um-durchschnittstemperaturen-waermer-erscheinen-zu-lassen/"><span>sobre el Deutscher Wetterdienst</span></a><span> o en Polonia </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://demagog.org.pl/fake_news/czy-siec-5g-sluzy-do-manipulowania-pogoda-to-nieprawda/"><span>acerca de IMGW-PIB</span></a><span>, por nombrar solo tres ejemplos de servicios públicos de meteorología que se enfrentan a ataques de desinformación en la Unión Europea. Sin embargo, se trata de una tendencia global con campañas documentadas en diferentes países, particularmente en Estados Unidos, donde los ataques no solo se dirigen </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.noaa.gov/news/fact-check-debunking-weather-modification-claims"><span>contra el servicio meteorológico</span></a><span>, sino también </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.politico.com/news/2024/10/08/fima-disinformation-hurricane-helene-response-00182841"><span>contra los departamentos de protección civil como FEMA</span></a><span>, en ocasiones con la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.isdglobal.org/digital_dispatches/russian-propaganda-exploits-us-hurricane-response-to-undermine-fema-and-ukraine-support/"><span>participación de actores extranjeros</span></a><span>.</span></p><h2><span>Una estrategia sólida para abordar el riesgo sistémico bajo la DSA</span></h2><p><span>Para diseñar un sistema eficaz de reducción de riesgos en este campo, las grandes plataformas y buscadores deben tener en cuenta varias consideraciones importantes:</span></p><ol class="list-decimal"><li><p><span>Si bien desempeñan un papel crucial, las agencias de meteorología también son instituciones públicas que deben ser sometidas a un nivel particularmente alto de escrutinio y transparencia, por lo que cualquier estrategia de reducción de riesgos </span><strong><span>no puede enfocarse hacia la eliminación de contenidos digitales </span></strong><span>a menos que estos sean claramente ilegales (como amenazas, suplantación de identidad, fraude, etc.) evitando además caer en la narrativa interesada de una supuesta “censura”.</span></p></li><li><p><span>Pese a esto, las plataformas y buscadores pueden y deben realizar intervenciones contextuales para reducir los riesgos de desinformación, </span><strong><span>empoderando a sus usuarios a través de etiquetas de verificación de datos u otras ayudas contextuales similares </span></strong><span>en el momento en que interactúan con contenido falso o engañoso, para que puedan así tomar sus propias decisiones.</span></p></li><li><p><span>Dado que el papel de estas agencias es particularmente importante </span><strong><span>durante fenómenos meteorológicos extremos</span></strong><span>, las plataformas y buscadores deben garantizar que su información de servicio público durante esos períodos llegue ante los usuarios que más necesitan verla, por ejemplo, en función de su ubicación, a través del </span><strong><span>despliegue de paneles informativos </span></strong><span>u otros mecanismos similares.</span></p></li></ol><p><span>Teniendo en cuenta estos principios, debería ser relativamente sencillo para las plataformas construir estrategias robustas de reducción de riesgos que se alineen plenamente con los estándares legales de la DSA, es decir, cuyas medidas sean razonables, proporcionadas, efectivas y adaptadas a los riesgos sistémicos específicos que presenta el servicio.</span></p><p><span>Un enfoque sistemático que se centre en </span><strong><span>mostrar información contextual en lugar de eliminar contenido</span></strong><span> es razonable y proporcionado, ya que dicha estrategia respeta totalmente la libertad de expresión de los usuarios al tiempo que reduce adecuadamente el riesgo de información errónea o desinformación, como indica la Comisión Europea en el contexto particular de la DSA en sus </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ec.europa.eu/newsroom/repository/document/2024-13/C_2024_2121_1_EN_annexe_acte_autonome_cp_part1_v3_tpHHZgYyBGFMF8J5rE0OR1GdOis_103911.pdf"><span>directrices sobre la mitigación de riesgos sistémicos para los procesos electorales</span></a><span>.</span></p><p><span>Se han probado e implementado intervenciones similares en todo tipo de servicios digitales y </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/politicas-publicas/20240126/fact-checking-works/"><span>han demostrado su eficacia</span></a><span> en diferentes perfiles de riesgo, reduciendo tanto la difusión de la desinformación como su creencia, pero también impulsando la capacidad de detección y respuesta de las plataformas en comparación con otras estrategias como la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>moderación de contenido tradicional</span></a><span> o </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>los programas de notas de la comunidad</span></a><span>.</span></p><p><span>El despliegue de paneles informativos para apoyar el alcance de estas agencias durante eventos meteorológicos extremos también es una intervención de reducción de riesgos perfectamente razonable y proporcionada, ya que la mayoría de las plataformas y buscadores han implementado recursos automatizados similares con información de terceros en algún momento, por ejemplo </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://misinforeview.hks.harvard.edu/wp-content/uploads/2020/05/FORMATTED_article_searchenginescovid19.pdf"><span>durante la pandemia del COVID-19</span></a><span>.</span></p><p><strong><span>Ofrecer a los usuarios información sobre fenómenos meteorológicos extremos en función su ubicación</span></strong><span> no solo es factible, sino que también es algo común que muchos otros proveedores de información relevantes hacen de forma rutinaria, y algunos incluso por obligación legal. Este es el caso de los medios de comunicación según la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.boe.es/buscar/act.php?id=BOE-A-2015-7730#:~:text=8.%20Los%20medios,de%20protecci%C3%B3n%20civil."><span>Ley de Protección Civil Española de 2015</span></a><span> y también en muchos países de las empresas de telecomunicaciones que comunican </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.weather.gov/wrn/wea"><span>alertas de servicio público</span></a><span> a teléfonos móviles dependiendo de la ubicación del aparato. Hasta donde sabemos, ninguna plataforma  mostró paneles informativos, por ejemplo, a sus usuarios en Valencia sobre las alertas de AEMET durante la DANA de octubre de 2024.</span></p><p><span>En Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> sabemos que la desinformación a menudo hace daño e incluso mata, y también que hay pocas situaciones en las que la información veraz sea más fundamental que durante y justo después de una catástrofe natural. La información meteorológica y las alertas de protección civil son, literalmente, un salvavidas en ese tipo de situaciones y, para que sean verdaderamente eficaces, deben concitar la máxima atención y confianza por parte del público.</span></p><p><span>Las agencias públicas de meteorología son por supuesto responsables de mantener una comunicación pública que les permita servir mejor a la ciudadanía cuando ocurren catástrofes, pero </span><strong><span>las grandes plataformas y buscadores también tienen que hacer su parte y garantizar que sus normas y la forma en la que se aplican estén a la altura de sus obligaciones legales y éticas</span></strong><span>.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20251023/dsa-agencias-meteorologicas-desinformacion-plataformas/</link>
      <pubDate>Thu, 23 Oct 2025 13:01:12 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/10/68f74b418b9deaemet-desinformacion-dsa-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Sigue a Maldita.es en Google Discover para que no te la cuelen]]></title>
      <description><![CDATA[<p><span>Google Discover ha activado en los últimos días la opción de seguir a medios de comunicación en su aplicación. Si, como miles de personas, utilizas diariamente este servicio para acceder a noticias y otros contenidos, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://profile.google.com/cp/Cg0vZy8xMWg1bDEwcjlu?pf=0"><strong><span>en </span></strong></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><a target="_blank" rel="noopener noreferrer nofollow" href="https://profile.google.com/cp/Cg0vZy8xMWg1bDEwcjlu?pf=0"><strong><span> te invitamos a seguirnos para que no te la cuelen</span></strong></a><strong><span>. </span></strong><span>De este modo,</span><strong><span> </span></strong><span>podrás consultar más fácilmente todos los contenidos que publiquemos.</span></p><p></p><div class="raw-html-node"><span class="codex-editor__fake-cursor" data-mutation-free="true"></span><div style="background: #FCE76C;      padding: 15px;border-radius: 20px;      margin-top: 20px;      margin-bottom: 20px;">  <a href="http://bit.ly/4pJ7d7B"><p style="text-align: center;      color: black;      font-family: 'Fira Sans Condensed';      font-size: 21px;margin-bottom:0;">¡Sigue a Maldita.es en Google Discover!</p> </a> </div></div><p></p><img src="https://files.maldita.es/maldita/uploads/2025/09/68d696b9d40dfdiseno-sin-titulo-8-png.png"><h2><strong><span>Por qué encontrarás a </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href=""><strong><span>Maldita.es</span></strong></a><strong><span> en Google Discover</span></strong></h2><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20241205/google-discover-configurarlo-datos/"><span>Google Discover</span></a><span> es un servicio de Google que te muestra </span><strong><span>artículos, vídeos y anuncios </span></strong><span>en tu móvil en base a lo que sus sistemas de automatización consideran que te interesa y que puedes encontrar tanto en tu móvil como en el navegador de Google.&nbsp;</span></p><p><span>Este servicio indexa contenidos de diferentes portales web que considera que se pueden categorizar como medios de comunicación, pero en esa indexación se cuelan webs de dudosa calidad y, en numerosas ocasiones, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20220722/google-news-contenidos-desinformacion/"><strong><span>contenidos desinformadores</span></strong></a><strong><span> y</span></strong><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20210225/clickbait-titulares-puede-convertirse-desinformacion/"><strong><span>titulares con ‘clickbait’</span></strong></a><span> que usan la ambigüedad o la exageración para conseguir visitas y que desinforman a los usuarios.</span></p><p><span>Aunque la existencia de plataformas de acceso a información es algo positivo, es importante asegurarse de que esta sea información veraz y no un canal en el que se propague más desinformación. Google Discover es una </span><strong><span>función utilizada por miles de usuarios</span></strong><span> que no siempre tienen claro de dónde salen los contenidos que la aplicación les recomienda, que no saben cómo personalizar su experiencia para evitar la desinformación que circula por la aplicación o que no saben cómo desactivarla (algo que te explicamos cómo hacer en </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20241205/google-discover-configurarlo-datos/"><span>este artículo de Maldita Tecnología</span></a><span>).</span></p><p><span>Por todo esto, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> quiere estar presente en Google Discover y ser una </span><strong><span>herramienta contra la desinformación</span></strong><span> para los usuarios de este servicio. Síguenos y ayúdanos a tener más posibilidades de que nuestros artículos y nuestros desmentidos lleguen a más personas y tengan más impacto. </span></p><p></p><div class="raw-html-node"><span class="codex-editor__fake-cursor" data-mutation-free="true"></span><div style="background: #FCE76C;      padding: 15px;border-radius: 20px;      margin-top: 20px;      margin-bottom: 20px;">  <a href="http://bit.ly/4pJ7d7B"><p style="text-align: center;      color: black;      font-family: 'Fira Sans Condensed';      font-size: 21px;margin-bottom:0;">¡Sigue a Maldita.es en Google Discover!</p> </a> </div></div>]]></description>
      <link>https://maldita.es/nosotros/20250926/maldita-google-discover-desinformacion/</link>
      <pubDate>Fri, 26 Sep 2025 16:03:25 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/09/68d696ce04a07diseno-sin-titulo-9-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es formará a empleados públicos de la Comunidad Valenciana para hacer frente a la desinformación en emergencias naturales]]></title>
      <description><![CDATA[<p><span>La </span><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><span> inicia un programa de formación para la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.fvmp.es/"><strong><span>Federación Valenciana de Municipios y Provincias (FVMP)</span></strong></a><span> </span><strong><span>dirigido a empleados públicos de la Comunidad Valenciana. </span></strong><span>El objetivo es dotar a la administración local de herramientas prácticas para identificar, entender y contrarrestar la desinformación en contextos de emergencias y desastres naturales.</span></p><p><span>La Federación Valenciana de Municipios y Provincias, que representa a los 542 ayuntamientos de la Comunitat, impulsa desde 1996 programas de formación continua para empleados públicos como herramienta esencial para ofrecer servicios de calidad y fortalecer el progreso de los municipios. Como parte de su propuesta formativa, expertos de </span><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span>, a través de su</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditaeduca/contacta-educa/"><strong><span> área de educación</span></strong></a><strong><span>, impartirán tres sesiones</span></strong><span> y </span><strong><span>realizarán materiales didácticos específicos</span></strong><span> con herramientas y recursos útiles para hacer frente a la desinformación desde la gestión pública que formarán parte de un curso virtual.&nbsp;&nbsp;</span></p><p><span>La </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241030/bulos-y-desinformaciones-sobre-el-paso-de-la-dana-en-el-este-y-sur-de-espana-en-octubre-de-2024/"><span>DANA en Valencia </span></a><span>y otras zonas de España puso de manifiesto la rapidez con la que se difunden bulos y narrativas falsas en redes sociales y plataformas digitales. Teorías de conspiración sobre el clima, rumores sobre infraestructuras críticas o mensajes manipulados se multiplicaron, generando desconfianza y confusión, dificultando la gestión pública de la emergencia. Más recientemente, episodios como </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20250429/bulos-apagon-peninsula-iberica-en-abril-de-2025/"><span>el apagón</span></a><span> de abril o </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20250822/incendios-forestales-espana-verano-2025/"><span>los incendios forestales en la península</span></a><span> han reforzado la urgencia de formar a los equipos públicos para responder de manera eficaz a la desinformación para evitar que se agrave el impacto de una crisis. </span><strong><span>Los contenidos del curso estarán orientados a comprender cómo funciona la desinformación en situaciones de emergencia</span></strong><span>, tomando como referencia estos casos.&nbsp;</span></p><p><span>Se trabajará en el análisis de bulos y narrativas desinformadoras en contextos de crisis climáticas, así como en los efectos que generan sobre la gestión pública y la confianza ciudadana. La formación también abordará el uso de herramientas de escucha activa y verificación para identificar desinformación, junto con estrategias que fortalezcan el pensamiento crítico. Además, se fomentará el uso responsable de la información en redes sociales y plataformas digitales durante emergencias.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250925/malditaes-formara-a-empleados-publicos-de-valencia-para-hacer-frente-a-la-desinformacion-en-emergencias-naturales/</link>
      <pubDate>Thu, 25 Sep 2025 17:38:57 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/09/68d562dfadca8dana-valencia-1600-x-615-px-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es participa en el proyecto "FIMI Defenders for Election Integrity" para combatir la injerencia extranjera en procesos electorales]]></title>
      <description><![CDATA[<p><span>En un contexto donde actores desinformadores, tanto nacionales como extranjeros, amenazan la integridad electoral y el funcionamiento de las instituciones democráticas, Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> se une al proyecto </span><strong><span>“FIMI Defenders for Election Integrity (FDEI)”</span></strong><span>. Esta iniciativa, coordinada por </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Debunk.org"><span>Debunk.org</span></a><span>, busca hacer frente a la </span><strong><span>manipulación e injerencia informativa extranjera</span></strong><span> (FIMI, por sus siglas en inglés) durante los procesos electorales de varios países europeos, incluidos de Alemania o Polonia, mediante una respuesta coordinada, estratégica y basada en evidencia.&nbsp;</span></p><p><span>El proyecto tiene como objetivo el desarrollo de una </span><strong><span>comunidad frente a la FIMI</span></strong><span>, con </span><strong><span>procesos estandarizados</span></strong><span>, </span><strong><span>modelos de datos escalables</span></strong><span> y </span><strong><span>herramientas interoperables</span></strong><span> que permitan </span><strong><span>monitorear y responder eficazmente a estas amenazas antes y durante las elecciones</span></strong><span>. Entre las principales acciones se incluye el desarrollo de un Manual Operativo y la creación de Equipos de Respuesta FIMI (FRT), encargados de establecer sistemas de monitoreo electoral, evaluar riesgos y fortalecer las capacidades de organizaciones locales frente a amenazas de manipulación informativa extranjera. Se creará una Herramienta de Estandarización de Datos (DST, por sus siglas en inglés) para mejorar el análisis y la respuesta a las campañas de FIMI. El proyecto también incluye formación, un programa global en línea e informes específicos para varios países europeos, junto con un informe final que resumirá las conclusiones y las recomendaciones del proyecto.</span></p><h2><span>¿Quiénes participan en el consorcio?</span></h2><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://fimi-isac.org/index.html"><strong><span>FIMI ISAC</span></strong></a><strong><span>:</span></strong><span> Centro de Intercambio y Análisis de Información sobre Interferencias y Manipulación de Información Extranjera, una red europea para compartir y analizar las amenazas FIMI.</span></p></li><li><p><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><span>: Organización española sin ánimo de lucro centrada en la lucha contra la desinformación a través del periodismo, la tecnología, la educación y la investigación.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="http://Debunk.org"><strong><span>Debunk.org</span></strong></a><strong><span>:</span></strong><span> Organización especializada en la detección, análisis y refutación de campañas de desinformación en Europa.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.isdglobal.org/"><strong><span>Institute for Strategic Dialogue (ISD)</span></strong></a><strong><span>:</span></strong><span> Think tank independiente que desarrolla soluciones para combatir el extremismo, la desinformación y las amenazas a la democracia en todo el mundo.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.globsec.org/"><strong><span>GLOBSEC</span></strong></a><strong><span>:</span></strong><span> Centro de pensamiento con sede en Bratislava que trabaja en seguridad global, defensa y resiliencia democrática en Europa Central y del Este.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://alliance4europe.eu/"><strong><span>Alliance4Europe</span></strong></a><strong><span>:</span></strong><span> Red paneuropea que moviliza a la sociedad civil y las instituciones para defender la democracia y contrarrestar la desinformación.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://securingdemocracy.gmfus.org/"><strong><span>Alliance for Securing Democracy</span></strong></a><strong><span>:</span></strong><span> Iniciativa transatlántica que monitorea y contrarresta los esfuerzos de injerencia autoritaria en las democracias occidentales.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.den-institute.org/"><strong>DEN (Design Entrepreneurship Institute)</strong></a><strong><span>:</span></strong><span> </span><em>think tank</em> sin ánimo de lucro que trabaja a nivel europeo apoyando la innovación participativa, la evaluación de impacto socioeconómico, la investigación en cambio climático, inclusión y tecnologías digitales.</p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.disinfo.eu/"><strong><span>EU DisinfoLab</span></strong></a><strong><span>:</span></strong><span> Organización independiente con sede en Bruselas que investiga campañas de desinformación en Europa y promueve políticas públicas eficaces contra estas amenazas.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://dfrlab.org/"><strong><span>DFRLab (Digital Forensic Research Lab)</span></strong></a><strong><span>:</span></strong><span> Laboratorio del Atlantic Council que emplea métodos de verificación digital para exponer la desinformación y promover la transparencia.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.disarm.foundation/"><strong><span>DISARM Foundation</span></strong></a><strong><span>:</span></strong><span> Proyecto que impulsa la cooperación entre actores clave para el intercambio de datos y alertas sobre desinformación a nivel internacional.</span></p></li></ul><h2><span>¿Qué aportará la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>?</span></h2><p><span>Desde Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, como organización responsable del paquete de trabajo de comunicación y diseminación del proyecto, se liderará la estrategia de difusión a nivel europeo. Esto implica el diseño y coordinación de una estrategia común entre los socios, la unificación de mensajes clave, el desarrollo de materiales gráficos y visuales que garanticen una identidad visual coherente, así como el monitoreo conjunto del impacto de la comunicación, apoyando la publicación de los informes en la</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://fimi-isac.org/reports/index.html"><span> página web de FIMI ISAC</span></a><span> y su difusión a través de sus redes.</span></p><p><span>Todas las organizaciones dentro del proyecto, incluida la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, forman parte del FIMI-ISAC (Foreign Information Manipulation and Interference – Information Sharing and Analysis Center). El proyecto está coordinado por </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Debunk.org"><span>Debunk.org</span></a><span> y cuenta con el apoyo de Google.&nbsp;</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250813/la-fundacion-malditaes-participa-en-el-proyecto-fimi-defenders/</link>
      <pubDate>Wed, 13 Aug 2025 15:41:59 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/08/689c95bcaa175banner-web-nosotros-1600-x-615-px-10-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[No te quemes con los bulos: este verano ponte a prueba con el reto de Maldita.es, un desafío de WhatsApp para que no te la cuelen]]></title>
      <description><![CDATA[<p>Llega el calor, la playa, el pueblo y el momento de desconectar de las responsabilidades. Seguro que ya tienes tu protector solar, tus gafas de sol y la toalla lista para lanzarte al agua. Pero, ¿te has preparado contra los bulos y los timos que circulan en verano? Si aún no lo has hecho entra en nuestro chatbot de WhatsApp desde la playa, la piscina o desde casa para empezar con este desafío que te pondrá a prueba.&nbsp;</p><p>Nuestro reto gratuito ofrece cuatro misiones sencillas —en sesiones de menos de 15 minutos cada una— para convertirte en todo un cazabulos y disfrutar de tus vacaciones sin miedo a que te la cuelen.</p><p>Para empezar los retos solo tienes que guardar este número <a target="_blank" rel="noopener noreferrer nofollow" href="https://wa.me/34644229319/?text=Llévame%20al%20reto%20del%20verano">+34 644 229 319</a>, en tu lista de contactos, entrar a WhatsApp y dar clic en la opción de <strong>‘</strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://api.whatsapp.com/send?phone=34644229319&amp;text=Ll%C3%A9vame%20al%20reto%20del%20verano"><strong>¡Reto veraniego!</strong></a><strong>’</strong>. Indica cuál es tu edad y ya estás listo para seleccionar la misión que quieras hacer. Te empezarán a llegar nuestras preguntas y contenidos: podrás ir completando cada módulo en el momento y el lugar que mejor te venga. ¿En el chiringuito? ¿En la tumbona? Tú decides.</p><h2><strong>Cuatro misiones para que no te la cuelen</strong></h2><p>Realizar los retos es completamente gratuito, están pensados para todos los públicos y adaptados a distintas edades. En este desafío del verano encontrarás cuatro módulos rápidos y dinámicos que puedes seguir a tu ritmo, cuando quieras y donde quieras. Cada uno incluye pequeñas cápsulas informativas. Estos son los temas que te proponemos:</p><ul class="list-disc"><li><p><strong>Atrapa el bulo</strong>. Antes de compartir, ponte el protector contra bulos. Descubre cómo detectar desinformación, imágenes manipuladas o titulares engañosos.</p></li><li><p><strong>Pesca la mentira</strong>. No piques el anzuelo, detecta las imágenes falsas. Claves para reconocer contenido visual manipulado, como <em>deepfakes </em>o vídeos alterados.</p></li><li><p><strong>Surfea la red</strong>: Esquiva la ola del algoritmo y navega con criterio. Recomendaciones para entender los algoritmos y cómo influyen en lo que vemos online.</p></li><li><p><strong>Rompe tu burbuja</strong>: Mira las noticias sin filtros ni sesgos, ¿sabes reconocerlos?</p></li></ul><p>Al final del recorrido, te convertirás en una persona experta en verificar contenidos y sabrás cómo evitar que te engañen este verano. ¡Demuestra que eres capaz de realizar todos los retos!</p><h2><strong>Comparte y súmate al reto</strong></h2><p>¿Eres monitor en un curso de verano y quieres ofrecer una actividad original y divertida? ¿Trabajas en un centro cultural, en una biblioteca o en un centro de mayores y quieres proponer dinámicas diferentes? ¿No sabes qué hacer para animar la conversación en casa o entre tus amigos? Esta es la excusa perfecta para pasar un buen rato y, de paso, protegernos entre todos contra la desinformación. Comparte nuestro número entre todos tus contactos.&nbsp;</p><p>Esta iniciativa forma parte del proyecto europeo <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20241209/maldita-sems-europa-cursos-whatsapp-espana-alemania-belgica/">SEMS —<em>Short and Effective Media Literacy Service in Europe</em></a>, coordinado por la Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> en España, y busca que la alfabetización mediática sea una herramienta al alcance de todos. El proyecto se desarrolla a nivel europeo junto a The Guardian Foundation&nbsp; y las organizaciones de fact-checking Correctiv, en Alemania, y deCheckers, en Bélgica.</p>]]></description>
      <link>https://maldita.es/nosotros/20250708/reto-de-maldita-un-juego-de-whatsapp-para-que-no-te-la-cuelen/</link>
      <pubDate>Tue, 08 Jul 2025 08:42:31 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/07/6867a07102fa5banner-web-nosotros-1600-x-615-px-8-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[ChatEurope, el primer chatbot dedicado a la actualidad europea]]></title>
      <description><![CDATA[<p>¿Cuáles son los países europeos a los que más les afecta la subida de los precios de la vivienda? ¿Quién ganó las elecciones presidenciales en Polonia? ¿Y en Rumanía? ¿Qué implicaciones tiene el plan de rearme europeo? Para todo lo que quieras saber sobre Europa… ¡Haz una pregunta, <a target="_blank" rel="noopener noreferrer nofollow" href="https://chateurope.eu/es/">ChatEurope</a> responde!</p><p>Lanzada por quince socios, entre ellos una docena de importantes medios de comunicación europeos, esta plataforma de noticias única integra, por primera vez, un chatbot, <strong>un agente conversacional dotado de inteligencia artificial, capaz de responder a tus preguntas sobre la actualidad europea</strong> en todas las lenguas de la UE. Su propósito es muy sencillo:<strong> ayudarte a entender mejor Europa</strong>, su funcionamiento, la manera en la que se toman las decisiones y cómo estas decisiones afectan a tu vida. </p><p>Coordinado por Agence France-Presse (AFP), el consorcio de medios que está detrás de esta plataforma reúne a medios destacados del periodismo europeo: las cadenas alemana y francesa Deutsche Welle y France Médias Monde; la radio rumana RFI Rumanía; las agencias de noticias alemana e italiana DPA y ANSA; el grupo de prensa polaco Agora; la Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> contra la desinformación; el diario español El País y el medio digital especializado del sudeste de Europa OBCT. </p><p><em>“Una redacción colaborativa, un enfoque que acerca a los ciudadanos europeos la información que les afecta directamente y la tecnología como herramienta para transmitir esa información son los elementos básicos de ChatEurope, y también algunos de los principios que siempre han marcado el trabajo de la Fundación </em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em>Maldita.es</em></a><em> para luchar contra la desinformación. Por eso participamos en este proyecto y creemos que será un medio de comunicación útil y fundamental para contribuir a que la ciudadanía europea reciba la información de calidad necesaria para tomar mejores decisiones en su día a día”</em>. Clara Jiménez Cruz, CEO de la Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a>.</p><p>La<strong> Fundación </strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong>Maldita.es</strong></a><strong> participará</strong> <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250516/fundacion-maldita-ask-europe/">en este proyecto<strong> </strong></a><strong>elaborando piezas breves explicativas, complementadas con elementos interactivos</strong>, que aporten la perspectiva española a asuntos de actualidad europea y que hablen sobre asuntos nacionales que tienen una vertiente comunitaria que ayudará a ciudadanos de otros estados miembros a entender lo que ocurre en España. En el corazón de este innovador proyecto se encuentra el chatbot de ChatEurope, que ha sido desarrollado por la empresa rumana DRUID y funciona utilizando el modelo lingüístico del grupo francés Mistral. Como socio técnico del proyecto, Xwiki ha desarrollado la plataforma de noticias. Dpa y las filiales de AFP, news aktuell y MediaConnect, se encargan de la comunicación. Dicho chatbot formula sus respuestas basándose únicamente en los miles de artículos proporcionados por los miembros del consorcio y siempre cita sus fuentes, ofreciendo a los usuarios de ChatEurope garantías de fiabilidad en medio de la desinformación generalizada que se mueve en redes sociales. En un panorama mediático en rápida evolución, también aporta a los usuarios una experiencia totalmente personalizada, dando la posibilidad de navegar a través de los contenidos en función de las preguntas que se realicen.</p><p>Noticias de última hora, análisis, formatos explicativos para entender Europa, artículos sobre las implicaciones nacionales de las políticas europeas, vídeos para redes sociales e incluso documentales, ChatEurope se dirige a todos los ciudadanos europeos, independientemente de su origen o edad. Esta plataforma se ha lanzado en siete idiomas: francés, inglés, español, italiano, alemán, rumano y polaco, pero su chatbot es capaz de responder en todas las lenguas de la UE. </p><p>ChatEurope está <strong>cofinanciada por la Comisión Europea</strong> y<strong> tiene independencia editorial</strong>, clave para su credibilidad. <em>“Al combinar fiabilidad e innovación, ChatEurope cambiará las reglas del juego de la información sobre asuntos europeos. A través de esta nueva plataforma, los ciudadanos europeos podrán conversar en su propio idioma con un chatbot capaz de encontrar respuestas creíbles y verificadas a sus preguntas a partir de los contenidos informativos proporcionados por los principales medios de comunicación. Los medios de comunicación necesitan adaptarse urgentemente ante la desinformación generalizada y a la llegada de la inteligencia artificial, y eso es precisamente lo que estamos haciendo con ChatEurope”,</em> ha dicho Christine Buhagiar, directora de desarrollo y diversificación de AFP.</p><p></p><h2>Socios de ChatEurope: </h2><ul class="list-disc"><li><p>Agence France Press (AFP) / Francia </p></li><li><p>Agenzia Nazionale Stampa Associata (ANSA) / Italia </p></li><li><p>Agora Media Group / Polonia </p></li><li><p>German Press Agency (dpa) / Alemania </p></li><li><p>Deutsche Welle (DW) / Alemania </p></li><li><p>DRUID AI / Rumanía </p></li><li><p>El País / España </p></li><li><p>France Médias Monde / Francia </p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> / España </p></li><li><p>MediaConnect (AFP) / Francia </p></li><li><p>news aktuell (dpa) / Germany </p></li><li><p>Osservatorio Balcani e Caucaso Transeuropa (OBCT) / Italia </p></li><li><p>RFI Romania / Rumanía </p></li><li><p>XWIKI SAS / Francia </p></li><li><p>XWIKI SOFTWARE / Rumanía</p><p></p></li></ul><p></p><p></p><p></p>]]></description>
      <link>https://maldita.es/nosotros/20250701/chateurope-el-primer-chatbot-dedicado-a-la-actualidad-europea/</link>
      <pubDate>Tue, 01 Jul 2025 12:25:32 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/07/6863a2267738dbanner-web-nosotros-1600-x-615-px-6-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Maldita.es recibe el Premio Adigital por su labor en la lucha contra la desinformación]]></title>
      <description><![CDATA[<p><span>La </span><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><span> ha sido reconocida con el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.premiosadigital.org/"><strong><span>Premio Adigital </span></strong></a><strong><span>en la categoría de Ciudadanía,</span></strong><span> que otorga la Asociación Española de la Economía Digital,</span><strong><span> por su rol como agente activo de transformación social a través de la tecnología.</span></strong></p><p><span>Desde su creación, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha desarrollado un ecosistema de herramientas y metodologías que combinan innovación tecnológica y participación ciudadana para proteger a la ciudadanía frente a la desinformación.&nbsp;&nbsp;</span></p><p><span>El jurado, conformado por</span><strong><span> Laura Cuesta Cano</span></strong><span>, experta en el uso adolescente de la tecnología; Eleonora Viezzer, física del plasma y reconocida investigadora; y </span><strong><span>Nieves Ábalos</span></strong><span>, referente en IA conversacional, </span><strong><span>Ofelia Tejerina</span></strong><span>, presidenta de la Asociación de Internautas; </span><strong><span>Teresa Rodríguez de las Heras</span></strong><span>, experta de la ONU en comercio electrónico; y </span><strong><span>Susana Solís</span></strong><span>, eurodiputada clave en la redacción de la Ley de Inteligencia Artificial, reconoce </span><em><span>“su labor en la lucha contra la desinformación, esencial para el desarrollo de una ciudadanía y una sociedad mejor informada y crítica”.</span></em></p><p><span>Entre las iniciativas destacadas por el jurado, sobresale la labor en alfabetización mediática de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> y proyectos que involucran de manera activa a la sociedad. Esto incluye su chatbot de&nbsp;</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.whatsapp.com/channel/0029Va1P6O91CYoIOIOlcm0y/100?utm_source=web&amp;utm_medium=ticker&amp;utm_campaign=channelmaldita"><strong><span>chatbot de WhatsApp</span></strong></a><span>, un canal de comunicación con la ciudadanía a través de una herramienta&nbsp;que permite a cualquier persona enviar contenido dudoso para que el equipo de expertos de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> lo verifique y resuelva sus consultas. Además, el programa </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/comunidad/login"><strong><span>Superpoderes</span></strong></a><span>, que reúne a más de 3.000 personas expertas de distintas disciplinas que colaboran en la creación de contenidos verificados y fiables, promueve el conocimiento colectivo.</span></p><p><span>Durante </span><strong><span>la entrega de premios, celebrada el pasado 26 de junio en Madrid</span></strong><span>, David Fernández, director de tecnología de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> destacó que </span><em><span>“este premio también pertenece a toda nuestra comunidad, a quienes día a día nos envían sus dudas, comparten conocimientos y colaboran en la lucha contra la desinformación”. </span></em><span>Además, “</span><em><span>que estemos aquí como premiados por una institución que representa a una parte de la industria digital del país, es un testimonio vivo de que podemos colaborar, de que podemos entendernos y trabajar en aspiraciones comunes que beneficien a todos, y también al país”,</span></em><span> añadió.&nbsp;</span></p><p><span>Además del premio en la categoría de Ciudadanía entregado a Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, durante el evento fue también&nbsp; reconocida la scale-up vasca </span><strong><span>Multiverse Computing</span></strong><span> en la categoría de Escalabilidad por su proyecto CompactifAI. En la categoría de Tecnologías Responsables, el premio fue para </span><strong><span>Orientatech</span></strong><span>, una iniciativa de la </span><strong><span>Fundación Tecsos</span></strong><span>, impulsada por Cruz Roja Española y la Fundación Vodafone España. Finalmente, el galardón en Innovación fue para </span><strong><span>Ocean Ecostructures</span></strong><span> por sus Life Boosting Units (LBUs), microarrecifes biomiméticos que transforman infraestructuras marinas en "oasis azules".</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.adigital.org/"><strong><span>Adigital</span></strong></a><strong><span>, Asociación Española de la Economía Digital,</span></strong><span> es una organización formada por más de 550 empresas de sectores clave de la economía digital, unidas por el objetivo de crear en España y Europa un entorno óptimo para el desarrollo y el crecimiento de la economía digital. Su labor busca contribuir a una sociedad más abierta, competitiva y sostenible, con especial atención a la ética digital.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250627/malditaes-recibe-el-premio-adigital-por-su-lucha-contra-la-desinformacion/</link>
      <pubDate>Fri, 27 Jun 2025 09:24:59 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/685e472e6dc39banner-web-nosotros-1600-x-615-px-4-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es recibe mención honorífica en el European Union Prize for Citizen Science 2025 por su modelo participativo contra la desinformación]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha sido reconocida con una </span><strong><span>mención honorífica en el </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://ars.electronica.art/citizenscience/en/"><strong><span>European Union Prize for Citizen Science 2025</span></strong></a><span>, otorgado por la Comisión Europea y gestionado por </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ars.electronica.art/news/en/"><span>Ars Electronica</span></a><span>. Este galardón celebra iniciativas que impulsan una sociedad plural, inclusiva y sostenible en Europa, y destaca el impacto social y político de los proyectos de ciencia ciudadana más innovadores.</span></p><p><span>En un contexto de transformación digital acelerada y creciente desinformación, esta mención reconoce el trabajo de Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> en el desarrollo de un modelo que combina herramientas tecnológicas con la implicación directa de la sociedad civil .</span></p><p><span>La mención del jurado destaca que la Fundación</span><a target="_blank" rel="noopener noreferrer nofollow" href="http://maldita.es"><span> </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> “</span><strong><span>promueve la transparencia a través del periodismo, la investigación y la incidencia en políticas públicas</span></strong><span>”, y que ha logrado “</span><strong><span>construir un proceso participativo robusto, en el que distintos actores pueden aportar su experiencia en diversas etapas y a través de distintos canales digitales”.</span></strong></p><p><span>Asimismo, el jurado valoró que </span><strong><span>la desinformación sigue siendo un reto poco abordado desde la ciencia ciudadana</span></strong><span> y que el enfoque de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> demuestra cómo esta problemática permite una gran diversidad de metodologías participativas, ampliando los roles que pueden asumir las personas en este tipo de proyectos.</span></p><h2><span>Un modelo participativo contra la desinformación</span></h2><p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> participó en esta edición del European Union Prize for Citizen Science con su modelo orientado a combatir la desinformación desde un enfoque colaborativo e inclusivo que combina el uso estratégico de herramientas tecnológicas con la participación de la sociedad civil. Entre estas iniciativas se encuentra </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://api.whatsapp.com/send?phone=34644229319&amp;text=&amp;source=&amp;data=&amp;app_absent="><strong><span>su chatbot de WhatsApp</span></strong></a><strong><span> </span></strong><span>potenciado por inteligencia artificial, que permite a cualquier persona verificar información, notificar sobre posibles desinformaciones y acceder a recursos de alfabetización mediática en tiempo real.&nbsp;</span></p><p><span>Además, la ciudadanía participa también en la verificación y contextualización de contenidos a través del programa </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://comunidad.maldita.es/u/comparte-superpoderes"><strong><span>Superpoderes</span></strong></a><span>, una red colaborativa conformada por más de 3.000 personas expertas verificadas en áreas como la ciencia, la medicina o la ingeniería. Estos colaboradores contribuyen compartiendo conocimiento riguroso sobre su área de expertise. El modelo convierte tanto a la ciudadanía como a la comunidad científica en agentes clave en la defensa del conocimiento verificado y en el fortalecimiento de la resiliencia social frente a las narrativas desinformadoras.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250620/fundacion-malditaes-recibe-mencion-honorifica-en-UE-prize-for-citizen-science-2025/</link>
      <pubDate>Fri, 20 Jun 2025 16:27:30 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/68556fa5d6bd0banner-web-nosotros-1600-x-615-px-3-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es se suma un año más al Máster de Periodismo de Investigación, Nuevas Narrativas, Datos, Fact-Checking, Transparencia e Inteligencia Artificial]]></title>
      <description><![CDATA[<p><span>En la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> creemos que el periodismo es una herramienta esencial para fortalecer la democracia y garantizar una ciudadanía informada. Por eso, por quinto año consecutivo nos sumamos al equipo docente del </span><strong><span>Máster de Periodismo de Investigación, Nuevas Narrativas, Datos, Fact-Cheking, Transparencia e Inteligencia Artificial, dirigido por Antonio Rubio y Manuel Gertrúdix. </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://master.elconfidencial.com/"><span>Puedes inscribirte aquí.&nbsp;</span></a></p><p><span>Desde </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> compartiremos con el alumnado nuestras metodologías de verificación, análisis de desinformación y estrategias de colaboración ciudadana, así como nuestra experiencia en la creación de formatos innovadores y campañas de impacto social.</span></p><p><span>Además, los estudiantes podrán conocer cómo funciona una redacción dedicada a investigar narrativas desinformadoras y qué papel juega la tecnología, la Inteligencia Artificial y la comunidad en nuestra labor diaria.</span></p><h2><span>Empleabilidad y referentes profesionales</span></h2><p><span>El </span><strong><span>Máster de Periodismo de Investigación, Nuevas Narrativas, Datos, Fact-Checking, Transparencia e Inteligencia Artificial</span></strong><span> en la Universidad Rey Juan Carlos cuenta con 13 años de experiencia y 18 medios, fundaciones y empresas tecnológicas colaboradoras. Tiene una empleabilidad de más del 90% y sus exalumnos son referentes en los mejores medios nacionales e internacionales. La URJC también es la universidad que tiene más empleabilidad en la Comunidad de Madrid.&nbsp;</span></p><p><span>Estos son los medios, fundaciones y tecnológicas colaboradores del Máster: Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, CAPA España, Prodigioso Volcán, Reporteros Sin Fronteras, Fundación Miguel Gil, Université Bordeaux Montaigne, France TV, Comisión Europea, El Faradio, Servimedia, PorCausa, Confilegal, IPYS, Iberinform, Esri, Madrid Diario, Diario Vivo y Canarias Ahora.</span></p><p><span>El periodo de inscripción está abierto hasta septiembre y puedes realizarlo </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://master.elconfidencial.com/#inscripcion"><span>aquí.</span></a><span>&nbsp;</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250620/maldita-se-suma-a-master-de-periodismo-de-investigacion/</link>
      <pubDate>Fri, 20 Jun 2025 10:35:08 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/68551c9d362aabanner-web-nosotros-1600-x-615-px-2-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es participa en Infoodmation para estudiar la desinformación sobre alimentación en Europa y sus efectos en el consumo]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> participa en el proyecto, financiado por la Unión Europea, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://infoodmation.eu/"><span>Infoodmation</span></a><span> - Optimizando la información y comunicación sobre alimentación para unos patrones dietéticos más saludables y sostenibles, que busca analizar y entender el ecosistema de la comunicación, la información y la desinformación sobre alimentación que existe en la Unión Europea y cómo esto afecta a las decisiones de los consumidores.&nbsp;</span></p><p><span>Liderado por el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.eufic.org/"><span>Consejo Europeo de Información sobre Alimentación (EUFIC)</span></a><span>, el proyecto tiene como objetivo&nbsp; promover un consumo informado que incentive una alimentación responsable, saludable y sostenible.</span></p><p><span>A lo largo de 3 años, el proyecto aplicará modelos teóricos que permitan entender y extraer conclusiones comunes y recomendaciones sobre la comunicación sobre alimentación y proveerá de recomendaciones para facilitar el acceso a información de calidad sobre los alimentos que consume la ciudadanía.&nbsp;</span></p><p><span>En el consorcio participan 10 organizaciones de 8 países:&nbsp; </span></p><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.eufic.org/en/european-projects/project/infoodmation-understanding-medias-role-in-consumers-food-behaviour"><span>Consejo Europeo de Información sobre Alimentación</span></a><span>, EUFIC (Bélgica)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://international.au.dk/"><span>Universidad de Aarhus </span></a><span>(Dinamarca)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.kuleuven.be/english/kuleuven/index.html"><span>Universidad Católica de Leuven</span></a><span> (Bélgica)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.zsi.at/"><span>Centro de Innovación Social GMBH </span></a><span>(Austria)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.loba.com/en"><span>Globaz S.A. </span></a><span>(Portugal)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.nutris.org/en"><span>Instituto de Nutrición de Liubliana </span></a><span>(Eslovenia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.wur.nl/en/project/infoodmation-food-information-for-healthy-and-sustainable-diets.htm"><span>Universidad de Wageningen (</span></a><span>Países Bajos)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://iclei-europe.org/"><span>Secretariado Europeo de Gobiernos Locales por la Sostenibilidad</span></a><span> (Alemania)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.beinfluence.eu/"><span>Beinfluence </span></a><span>(Bélgica)</span></p></li><li><p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> (España)</span></p></li></ul><h2><span>¿Qué aportará la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>?</span></h2><p><span>Como parte de ese proyecto, la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> analizará los contenidos recogidos por cada socio en sus respectivos países que contengan desinformación sobre alimentación, detectando narrativas comunes, extrayendo patrones de difusión en cada país y analizando los posibles efectos de esas narrativas en cada país. También elaborará una serie de recomendaciones y consejos para todos los actores implicados en el sector de la alimentación para mejorar la integridad de la información y combatir activamente la desinformación.</span></p><h2><span>¿Cuánto recibirá </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> para realizar el proyecto?</span></h2><p><span>Infoodmation es un proyecto financiado al 100% con 2.998.444,32€ por el programa </span><em><span>HORIZON.2.6 - Food, Bioeconomy Natural Resources, Agriculture and Environment</span></em><span> de la Unión Europea. La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> recibirá 174.375,00 €&nbsp; para llevar a cabo las actividades asignadas entre el principio de 2025 y el final de 2027.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250618/infoodmation-estudio-de-desinformacion-sobre-alimentacion/</link>
      <pubDate>Wed, 18 Jun 2025 11:44:42 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/68528a3233559infoodmation-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es lidera un proyecto para investigar el impacto del argument checking como complemento a la verificación]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> lidera </span><em><span>AC/DC: Argument Checking vs Disinformation Content during Climate Emergencies and Crisis </span></em><span>(Verificación de Argumentos contra el contenido desinformador durante emergencias y crisis climáticas). Desarrollado junto a investigadores de la Universidad de Navarra, este proyecto busca desarrollar y poner a prueba el concepto de </span><em><span>argument checking</span></em><span> y su eficacia para contrarrestar la desinformación.</span></p><p><strong><span>El a</span><em><span>rgument</span></em><span> checking es una técnica complemento a la verificación de datos que apela al sentido crítico y el razonamiento lógico de la ciudadanía.</span></strong><span> El objetivo de este proyecto es desarrollar una metodología estandarizada para su uso a través de la experimentación, esto permitirá medir su eficacia y el uso que hace la ciudadanía.&nbsp;&nbsp;</span></p><p><span>Para ello, l</span><strong><span>a Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span> desarrollará varios prototipos de este tipo de argumentación</span></strong><span> con distintos formatos aplicables a narrativas desinformadoras sobre el cambio climático. Los investigadores de la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.unav.edu/inicio"><span>Universidad de Navarra</span></a><span> llevarán a cabo una serie de pruebas con ciudadanos para probar cuál de los prototipos demuestra ser más eficaz para contrarrestar esas narrativas y si la incorporación del </span><em><span>argument checking</span></em><span> a las verificaciones refuerza su eficacia. Con esos resultados se implementará este concepto en la práctica periodística habitual de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a></p><p><span>Este proyecto nace tras las experiencias de la pandemia de la COVID-19, la invasión a Ucrania&nbsp; o la DANA de Valencia, donde se identificó la necesidad de ir más allá en las verificaciones de contenidos desinformadores. La desinformación utiliza narrativas capaces de ir más allá de los datos y los hechos, creando un relato que apela a la ciudadanía de manera que mezcla los datos con un componente emocional. Este proyecto busca crear evidencia para identificar y crear nuevas aproximaciones metodológicas que permitan mejorar la eficacia de la lucha contra la desinformación.&nbsp;</span></p><h2><span>¿Cuánto recibirá la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> para realizar el proyecto?</span></h2><p><span>AC/DC: </span><em><span>Argument Checking vs Disinformation Content during Climate Emergencies and Crises </span></em><span>es un proyecto financiado por la Fundación Calouste Gulbenkian a través del </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://gulbenkian.pt/emifund/"><span>European Media and Information Fund</span></a><span> (EMIF) con 54.963,23€. La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> recibirá 43.753,23€ para llevar a cabo las actividades asignadas entre junio y noviembre de 2025.</span></p><p><em>Esta publicación ha sido elaborada con el apoyo del Fondo Europeo de Medios e Información (EMIF), gestionado por la Fundación Calouste Gulbenkian. El contenido de esta publicación es responsabilidad exclusiva de </em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em>Maldita.es</em></a><em> y no refleja necesariamente las opiniones del EMIF ni de la Fundación Calouste Gulbenkian.</em></p>]]></description>
      <link>https://maldita.es/nosotros/20250617/argument-checking-como-complemento-de-verificacion/</link>
      <pubDate>Tue, 17 Jun 2025 11:30:54 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/68512db754fe5banner-web-nosotros-9-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[España es el tercer país europeo con mayor preocupación por la desinformación, según el Digital News Report]]></title>
      <description><![CDATA[<p><span>España es el t</span><strong><span>ercer país europeo donde más preocupación causa la desinformación</span></strong><span>. Son datos del </span><strong><span>Digital News Report 2025</span></strong><span> que analiza 48 países de los cinco continentes, 25 de ellos europeos. </span><strong><span>El 69% de los españoles dice que preocupa la desinformación</span></strong><span>, cuando la media de los estudiados a nivel global está en el 58% y la media de los europeos en el 54%.&nbsp;&nbsp;</span></p><p><span>Esta es la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://reutersinstitute.politics.ox.ac.uk/es/digital-news-report/2025"><span>edición 14 del informe</span></a><span> que este año se fija en qué redes sociales se percibe que la amenaza de la desinformación es mayor o en si los ciudadanos de cada país han recibido formación mediática. </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.unav.edu/web/digital-news-report/entradas/-/blogs/informe-ejecutivo-2025"><span>En España la encuesta la ha realizado la Universidad de Navarra</span></a><span>. Estas son las</span><strong><span> cinco claves del informe</span></strong><span>.</span></p><div class="raw-html-node"><span class="codex-editor__fake-cursor" data-mutation-free="true"></span><div style="background: #25D366;

    padding: 15px;border-radius: 20px;

    margin-top: 20px;

    margin-bottom: 20px;">

<a href="https://bit.ly/3EGa2ju"><p style="text-align: center;

    color: black;

    

    font-size: 21px;margin-bottom:0;">📲 ¡Pincha aquí y sigue el canal de WhatsApp de Maldita.es <br> para que no te la cuelen!</p> </a>

</div></div><h2><span>España es uno de los países europeos donde la preocupación por la desinformación es mayor</span></h2><p><span>El </span><strong><span>69% de los españoles dice que está preocupado por lo que es real y lo que es falso en internet, un porcentaje que coloca a España como uno de los países con mayor preocupación</span></strong><span> entre los 48 estudiados en el informe. </span><strong><span>A nivel mundial aparece en novena posición</span></strong><span>, con 11 puntos porcentuales más que la media global que se sitúa en el 58%. </span><strong><span>Si nos fijamos en Europa, España ocupa el tercer lugar, sólo por detrás de Portugal y Reino Unido y 15 puntos por encima de la media europea</span></strong><span>. Si comparamos con el año anterior, los datos son muy parecidos. La preocupación baja un punto, del 70 al 69% y sólo un 9% dice que la desinformación no le preocupa.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/68511847a9f9epreocupacion-bulos-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Preocupación por los bulos en internet. Fuente: Digital News Report.</figcaption></figure><p><span>Si nos fijamos en la edad de los encuestados, </span><strong><span>se ve un aumento de la preocupación entre los más jóvenes y los más mayores</span></strong><span>. El mayor porcentaje de preocupados está entre los mayores de 65 años. Pasa del 73 al 74%. El porcentaje de jóvenes preocupados sube tres puntos y pasa del 63 al 66%.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/68511902b7b63bulos-edad-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Preocupación por los bulos en internet por edad. Fuente: Digital News Report.</figcaption></figure><h2><span>TikTok y Twitter (ahora X), las redes sociales donde se percibe una mayor amenaza de la desinformación</span></h2><p><span>Tres de cada cuatro encuestados (73%) señalan alguna red social o plataforma de vídeo como amenaza importante en lo que se refiere a la desinformación. </span><strong><span>TikTok (48%) es la plataforma que más se menciona cuando se habla de esta amenaza. Le siguen Twitter (46%) y Facebook (41%)</span></strong><span>.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/6851193a3f20camenazas-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Amenazas en relación con la información falsa y engañosa en internet. Canales. Fuente: Digital News Report.</figcaption></figure><h2><span>Un 23% de los españoles recurre a los verificadores cuando sospecha que una información puede ser falsa o engañosa</span></h2><p><span>En la encuesta también se pregunta sobre </span><strong><span>qué hace la gente cuando duda de si algo es desinformación</span></strong><span>. En el gráfico se ve que, en general, </span><strong><span>se verifica menos en España que en el resto de países</span></strong><span>. Cuando lo hacen, </span><strong><span>la primera opción de los españoles son los medios en los que confían</span></strong><span>, seguidos por fuentes oficiales y los</span><strong><span> fact-checkers</span></strong><span>. Entre los verificadores destacan </span><strong><em><span>Maldita.es</span></em><span> y Newtral</span></strong><span>.</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/6851198eab182verificacion-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Recursos para verificar una información que se sospecha falsa o engañosa en España y en 48 países. Fuente: Digital News Report.</figcaption></figure><div class="raw-html-node"><div style="background: #fae251; padding: 15px; border-radius: 20px; margin-top: 20px; margin-bottom: 20px;">
<p style="text-align: center; color: black;  font-size: 21px; margin-bottom: 0;"> <a href="https://api.whatsapp.com/send?phone=34644229319&amp;text=&amp;source=&amp;data=&amp;app_absent="> ¿Crees que te ha llegado un bulo? Verifica en nuestro chatbot de WhatsApp (+34 644 229 319)</a>
</p>
</div></div><h2><span>Sólo un 18% de los ciudadanos ha recibido algún tipo de alfabetización mediática&nbsp;</span></h2><p><span>Este año el Digital News Report pregunta por la </span><strong><span>alfabetización mediática y ven que no está muy extendida</span></strong><span>. En España, </span><strong><span>sólo el 18% de los encuestados dice haber recibido formación relacionada con el uso de información</span></strong><span>, el 74% dice que no y el 8% no lo sabe. Esto nos sitúa ligeramente por debajo de la media a nivel mundial.&nbsp;</span></p><p><span>Además hay claras diferencias según la edad. Entre los </span><strong><span>menores de 35 años, cerca de un tercio de los encuestados ha recibido algún tipo de formación</span></strong><span>, mientras que por </span><strong><span>encima de los 55 años apenas un 10%</span></strong><span> la ha tenido.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/685119bcb18cfalfabetizacion-mediatica-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Alfabetización mediática por grupos de edad. Fuente: Digital News Report.</figcaption></figure><h2><span>WhatsApp es la red social más utilizada y la segunda en uso informativo</span></h2><p><span>En cuanto al uso de redes sociales, </span><strong><span>WhatsApp sigue claramente en el número uno</span></strong><span>. YouTube se mantiene segundo y sube un poco y </span><strong><span>también van hacia arriba Instagram y TikTok</span></strong><span>.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/685119df159b5uso-redes-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Uso informativo de las redes sociales. Fuente: Digital News Report.</figcaption></figure><p><span>Cuando se pregunta qué redes sociales se utilizan </span><strong><span>para informarse, WhatsApp comparte el liderato con Facebook</span></strong><span>, con un 24% de los encuestados que dicen que se informan en ellas. En general, </span><strong><span>el uso informativo de estas redes disminuye con respecto al año anterior</span></strong><span>. Sólo </span><strong><span>sube Telegram</span></strong><span> del 7 al 8% y </span><strong><span>se mantiene TikTok </span></strong><span>en el 11%.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/68511814c19c2uso-redes-dnr25-webp.webp" draggable="false" contenteditable="false"><figcaption>Uso informativo de las redes sociales. Fuente: Digital News Report 2025.</figcaption></figure><p><span>La </span><strong><span>edad</span></strong><span> importa mucho en ese uso informativo. </span><strong><span>Twitter, TikTok, Instagram y Telegram son claramente más usados para informarse entre los menores de 35</span></strong><span>, mientras que </span><strong><span>YouTube, WhatsApp y, sobre todo, Facebook</span></strong><span> son mucho más usados por los </span><strong><span>mayores de 35</span></strong><span>.&nbsp;</span></p><figure><img src="https://files.maldita.es/maldita/uploads/2025/06/68511a04eda62informacion-edad-dnr25-png.png" draggable="false" contenteditable="false"><figcaption>Uso informativo por edad. Fuente: Digital News Report.</figcaption></figure><p><span>Puedes consultar el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://reutersinstitute.politics.ox.ac.uk/es/digital-news-report/2025"><strong><span>informe global en español</span></strong><span> del Reuters Institute en el siguiente enlace</span></a><span>. También puedes consultar el los </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.unav.edu/web/digital-news-report/entradas/-/blogs/informe-ejecutivo-2025"><strong><span>datos sobre España</span></strong><span> aquí</span></a><span>.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250617/espana-preocupacion-desinformacion-dnr/</link>
      <pubDate>Tue, 17 Jun 2025 09:36:34 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/68511a264c2b6digital-news-report-2025-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es estará en la Feria del Libro de Madrid para hablar de desinformación en español]]></title>
      <description><![CDATA[<p><span>Como parte de las actividades del </span><strong><span>Pabellón Iberoamericano del </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.exteriores.gob.es/es/PoliticaExterior/Paginas/Pabellon-Iberoamericano.aspx"><strong><span>Ministerio de Asuntos Exteriores, Unión Europea y Cooperación</span></strong></a><strong><span> </span></strong><span>de la </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://ferialibromadrid.com/"><span>Feria del Libro</span></a><span> de Madrid a través de la </span><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><span> impulsa el ciclo de conferencias </span><strong><em><span>“La ruta de la seda de la desinformación en español”</span></em><span> el próximo viernes 13 de junio.&nbsp;</span></strong></p><p><span>En un contexto en el que las narrativas desinformadoras y la manipulación informativa se propagan con rapidez a través de redes sociales y plataformas digitales, el español —idioma compartido por más de 580 millones de personas— juega un papel importante como vía de circulación de estos contenidos, pero también como una herramienta para combatirlos. Este ciclo se propone explorar los retos que enfrenta el español y&nbsp; cómo puede convertirse en una </span><strong><span>lengua de confianza</span></strong><span>, capaz de articular respuestas críticas y colaborativas frente a la desinformación.</span></p><p><span>Para ello, la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> ha colaborado, junto a la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.segib.org/"><span>Secretaría General Iberoamericana (SEGIB), </span></a><span>en la curación de una jornada sobre desinformación el </span><strong><span>viernes 13 de junio</span></strong><span> en el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maps.app.goo.gl/pLdGQyJZxXdHN3ur9"><span>Pabellón Iberoamericano de la Feria</span></a><span> (ubicado en la Puerta Doce de Octubre. Av. de Menéndez Pelayo, Retiro), con dos mesas de diálogo que conectan periodismo, tecnología, política y sociedad civil iberoamericana.</span></p><p><span>La primera sesión, </span><strong><em><span>“La desinformación en español: causas, consecuencias y respuestas”</span></em><span> </span></strong><span>(11:00h), reunirá a especialistas en verificación de información, periodismo y estudios estratégicos para analizar los orígenes estructurales del fenómeno, sus efectos en sociedades democráticas y las respuestas que ya se están articulando desde distintas latitudes. Participarán </span><strong><span>Sergio Hernández</span></strong><span> (EFE Verifica), </span><strong><span>Carmen Quintela</span></strong><span> (Agencia Ocote, Guatemala / LatamChequea), y </span><strong><span>Ángel Badillo</span></strong><span> (Real Instituto Elcano). Moderará el debate </span><strong><span>Clara Jiménez Cruz</span></strong><span>, cofundadora de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> y del proyecto Factchequeado (EE.UU.), y </span><strong><span>Lula Gómez Benito</span></strong><span>, directora de comunicación de la SEGIB.</span></p><p><span>A continuación, a las 12:00 h, la atención se desplazará al papel del español en los entornos digitales más avanzados, con la mesa </span><strong><em><span>“LLM Grooming: cómo se está intentando engañar a la IA en español”</span></em></strong><span>. Esta conversación abordará los riesgos de manipulación de los modelos de lenguaje de inteligencia artificial —como ChatGPT o Gemini— a través de contenidos sesgados en español. Intervendrán </span><strong><span>Luis Vásquez</span></strong><span>, investigador del Barcelona Supercomputing Center (BSC), </span><strong><span>Pablo Gamallo Otero</span></strong><span>, catedrático de la Universidad de Santiago de Compostela e investigador del Centro Singular de Investigación en Tecnologías Inteligentes, y </span><strong><span>María Grandury</span></strong><span>, fundadora de la comunidad SomosNLP. Modera </span><strong><span>David Fernández</span></strong><span>, director tecnológico de Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, junto a </span><strong><span>Félix García Lausín</span></strong><span>, responsable del Espacio de Conocimiento Iberoamericano de la SEGIB.</span></p><img src="https://files.maldita.es/maldita/uploads/2025/06/683f18988a90ela-desinformacion-en-espanol-causas-consecuencias-y-respuestas-6-png.png"><p></p><p></p><p></p><p></p>]]></description>
      <link>https://maldita.es/nosotros/20250602/malditaes-estara-en-feria-del-libro-de-madrid-para-hablar-de-desinformacion/</link>
      <pubDate>Mon, 02 Jun 2025 15:23:25 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/06/683da710a4ed1banner-web-nosotros-svg.svg</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Red de Periodistas Rurales se une a la Agencia de Contenidos de Maldita.es para proteger la integridad de la información en entornos rurales]]></title>
      <description><![CDATA[<p><a target="_blank" rel="noopener noreferrer nofollow" href="https://reddeperiodistasrurales.com/"><span>La Red de Periodistas Rurales</span></a><span> y la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> han sellado un acuerdo de colaboración con el objetivo de </span><strong><span>fortalecer el trabajo de los y las periodistas que ejercen su labor en entornos rurales, facilitando el acceso a contenidos verificados </span></strong><span>y combatiendo conjuntamente la desinformación. Esta alianza se concreta a través de la incorporación de la Red a la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><em><span>Agencia de Contenidos de </span></em></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><em><span> (ACM)</span></em></a><span>, una herramienta gratuita impulsada por la Fundación para apoyar a medios de comunicación de todo el país.</span></p><p><span>Con esta iniciativa, la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> reafirma su compromiso con el periodismo local, rural y comunitario, clave para garantizar el derecho a la información en zonas donde los recursos informativos suelen ser más limitados. A través de ACM, periodistas de la Red podrán acceder a artículos, verificaciones y desmentidos elaborados con la metodología de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, listos para su uso y republicación.</span></p><p><em><span>“El periodismo rural desempeña un papel esencial como garante del acceso a la información en las comunidades. Esta alianza busca facilitarle a los profesionales el acceso a&nbsp; herramientas que refuercen su trabajo diario, en un contexto que sabemos es objetivo de campañas de desinformación a nivel europeo”, ha señalado Clara Jiménez Cruz, presidenta de la Fundación </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span>.</span></em></p><h2><span>Una agencia de contenidos para quienes informan desde el territorio</span></h2><p><span>La </span><em><span>Agencia de Contenidos de </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> está diseñada para facilitar el acceso a información contrastada, especialmente útil en redacciones pequeñas o con recursos limitados. Desde artículos sobre ciencia y tecnología hasta desmentidos sobre bulos virales o timos, la plataforma ofrece contenidos clasificados por temas y acompañados de recursos visuales listos para su integración&nbsp; y adecuación a medios locales.</span></p><p><span>La Red de Periodistas Rurales es una iniciativa de la Cátedra Estrella Galicia Desarrollo Rural de Next Educación. Se trata de la primera red española de esta índole impulsada por Manuel Campo Vidal, presidente de Next Educación, y formada por periodistas nacidos en territorio rural que, desde los distintos medios de comunicación a los que pertenecen, pretenden dar visibilidad a sus pueblos para que vivan con dignidad y en igualdad.</span></p><h2><span>Sumando fuerzas contra la desinformación</span></h2><p>Este acuerdo permitirá a periodistas rurales incorporar información verificada en sus coberturas, enriqueciendo su trabajo con datos fiables y promoviendo una ciudadanía más informada. Además, <strong>la Red podrá contribuir con su conocimiento territorial a la detección de narrativas desinformadoras que circulan en sus comunidades</strong>, reforzando así la dimensión colaborativa del proyecto.</p><p><span>La alianza entre la Red de Periodistas Rurales y la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> representa un paso importante hacia la descentralización del acceso a la verificación de datos. En un contexto de creciente circulación de narrativas desinformadoras, sumar fuerzas y compartir recursos es una estrategia clave para proteger el debate público y fomentar una sociedad mejor informada.</span></p><p><span>Desde </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, </span><strong><span>se invita a más medios y periodistas a registrarse en la Agencia</span></strong><span>, sumándose a una red de profesionales comprometidos con la transparencia y el rigor informativo.</span></p><p><strong><span>Solicita tu acceso a la Agencia de Contenidos de </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><strong><span> aquí</span></strong></a></p>]]></description>
      <link>https://maldita.es/nosotros/20250526/red-de-periodistas-rurales-se-une-agencia-de-contenidos-de-malditaes/</link>
      <pubDate>Mon, 26 May 2025 12:56:55 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/05/68344899359abbanner-web-nosotros-6-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es lidera un proyecto co-financiado por la Unión Europea para combatir la desinformación en Georgia]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> encabeza un nuevo proyecto internacional co-financiado por la Unión Europea a través del programa </span><em><span>Neighbourhood, Development and International Cooperation Instrument (NDICI) – Global Europe</span></em><span> (Instrumento de Vecindad, Desarrollo y Cooperación Internacional – Europa Global) para reforzar la resiliencia frente a la desinformación en Georgia.&nbsp;</span></p><p><span>El proyecto, </span><em><span>SAFIMI: Georgian Society Against FIMI, disinformation and coordinated inauthentic behaviour</span></em><span> (SAFIMI: sociedad georgiana contra la desinformación, la manipulación informativa extranjera y el comportamiento inauténtico coordinado), se desarrollará entre 2025 y 2027 y busca proteger el espacio informativo georgiano frente a amenazas externas.</span></p><p><span>El proyecto se lleva a cabo en colaboración con Media Development Foundation, Transparency International Georgia y la Transatlantic Foundation. SAFIMI tiene como objetivo construir una red de colaboración entre medios, organizaciones de la sociedad civil, autoridades locales y ciudadanía para contrarrestar narrativas desinformativas e intentos de manipulación extranjera.</span></p><p><span>A lo largo de 30 meses, el equipo de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> y sus socios desarrollarán investigaciones, formaciones, materiales periodísticos multilingües y herramientas prácticas que sirvan para detectar, entender y responder a las estrategias de desinformación. Además, el proyecto ofrecerá apoyo económico y estratégico a actores locales para reforzar su capacidad de acción.</span></p><p><span>Se espera involucrar a más de 500 participantes en sesiones de formación, foros interactivos y eventos comunitarios, con el objetivo de crear una comunidad activa y bien informada capaz de defender la integridad del debate público en Georgia.</span></p><p><span>La participación de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> como entidad líder en este proyecto es un nuevo paso en su estrategia de internacionalización y refuerza su compromiso con la lucha contra la desinformación más allá de las fronteras españolas. SAFIMI refleja el reconocimiento europeo al trabajo de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> en el ámbito del periodismo, la tecnología, la educación y la investigación para proteger el derecho a una información veraz.</span></p><h2><span>¿Quiénes participan en el consorcio SAFIMI?</span></h2><p><span>El consorcio está conformado por:&nbsp;</span></p><ul class="list-disc"><li><p><strong><span>Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span> (España): </span></strong>Fundación sin ánimo de lucro centrada en la lucha contra la desinformación a través del periodismo, la tecnología, la educación y la investigación.</p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.mdfgeorgia.ge/eng/home"><strong><span>Media Development Foundation </span></strong></a><strong><span>(Georgia)</span></strong><span>:</span>Organización especializada en transparencia mediática y verificación de datos.</p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://transparency.ge/en"><strong><span>Transparency International Georgia</span></strong></a><strong><span> (Georgia)</span></strong><span>: </span>ONG dedicada a combatir la corrupción y promover una gobernanza abierta.</p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.gmfus.org/transatlantic-foundation"><strong><span>Transatlantic Foundation </span></strong></a><strong><span>(Bélgica)</span></strong><span>: </span>Entidad que impulsa iniciativas democráticas y refuerza la sociedad civil en Europa y más allá.</p><h2><span>¿Quién financia y con cuánto dinero este proyecto?</span></h2></li></ul><p><span>Este proyecto es co-financiado al 95% por la Unión Europea y </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> recibirá 217.335,55 € por la realización de las actividades durante los 30 meses del programa que finaliza en julio de 2027</span></p><p></p><div class="raw-html-node"><div style="gap:12px; justify-content: space-between; align-items: center; display: inline-flex">
  <img style="max-width: 33%" src="https://files.maldita.es/maldita/uploads/2024/09/66f17c40ebcc5es-co-fundedbytheeu-rgb-pos-png.png">
  <div style="align-self: stretch; transform: rotate(360deg); transform-origin: 0 0; border: 2px #D9D9D9 solid"></div>
  <div><span style="color: black; font-size: 18px; font-family: Lato; font-weight: 600; word-wrap: break-word"></span><span style="color: black; font-size: 18px; font-family: Lato; font-style: italic; font-weight: 400; word-wrap: break-word">Las opiniones y puntos de vista expresados solo comprometen a su(s) autor(es) y no reflejan necesariamente los de la Unión Europea. Ni la Unión Europea ni la autoridad otorgante pueden ser considerados responsables de ellos.</span></div>
</div></div>]]></description>
      <link>https://maldita.es/nosotros/20250516/maldita-safimi-desinformacion-georgia/</link>
      <pubDate>Fri, 16 May 2025 11:36:04 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/05/682709e40105cbanner-web-nosotros-3-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es participa junto a 14 organizaciones en la creación de una plataforma digital con información sobre la Unión Europea]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> forma parte de </span><strong><em><span>AskEurope</span></em></strong><span>, un proyecto europeo liderado por </span><em><span>Agence France-Press, </span></em><span>que tiene como objetivo facilitar a la ciudadanía de la Unión Europea el acceso a información rigurosa y de calidad sobre las instituciones comunitarias y los Estados miembros. Esta iniciativa se concretará a través de la creación de una </span><strong><span>plataforma digital informativa</span></strong><span>, impulsada por un consorcio de 15 organizaciones europeas.</span></p><p><span>En este proyecto también participan medios de comunicación como </span><strong><span>Deutsche Welle (Alemania)</span></strong><span> o </span><strong><span>Agenzia ANSA (Italia)</span></strong><span>, responsables de la producción editorial y la elaboración de contenidos informativos, junto con empresas tecnológicas encargadas del desarrollo de la infraestructura digital. La </span><strong><span>inteligencia artificial</span></strong><span> jugará un papel clave, especialmente en la </span><strong><span>traducción automática de contenidos</span></strong><span> a los distintos idiomas oficiales de la UE y en la presentación de la información de forma </span><strong><span>accesible e intuitiva</span></strong><span> para los usuarios.</span></p><p><span>Todas las organizaciones trabajarán de forma coordinada como una </span><strong><span>unidad editorial transnacional</span></strong><span>, abordando temas relevantes tanto a nivel comunitario como nacional, siempre desde una perspectiva europea que refuerce la integración y el sentido de ciudadanía compartida.</span></p><p><span>El proyecto tiene una duración de </span><strong><span>dos años</span></strong><span>, desde </span><strong><span>marzo de 2025 hasta febrero de 2027</span></strong><span>, y cada entidad socia asumirá responsabilidades específicas, ya sea en el ámbito </span><strong><span>editorial</span></strong><span> o en el de </span><strong><span>desarrollo y soporte tecnológico</span></strong><span>.</span></p><h2><span>¿Qué hará la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span>?</span></h2><p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> será responsable de la </span><strong><span>producción de contenidos explicativos en distintos formatos</span></strong><span>, incorporando elementos multimedia que aborden, desde una perspectiva nacional, temas clave relacionados con la Unión Europea y la </span><strong><span>lucha contra la desinformación</span></strong><span>.</span></p><p><span>Además, liderará la </span><strong><span>coordinación de la estrategia en redes sociales</span></strong><span> del proyecto garantizando una comunicación cohesionada y adaptada a las distintas audiencias europeas.</span></p><h2><span>¿Quién financia y con cuánto dinero este proyecto?</span></h2><p><em><span>Ask-Europe </span></em><span>es un proyecto cofinanciado (95%) por la Comisión Europea a través del Programa de Trabajo 2024 para la financiación de Acciones Multimedia del Directorio General de Redes de Comunicación, Contenido y Tecnología. La cantidad aportada por este programa de la UE es de 2.677.885 euros, de los cuales la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> recibirá 90.907 euros.</span></p><p><span>Proyecto: PO-4500082072</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250516/fundacion-maldita-ask-europe/</link>
      <pubDate>Fri, 16 May 2025 11:14:02 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/05/6827018aa594bbanner-web-nosotros-2-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es es seleccionada por JournalismAI para desarrollar un asistente con inteligencia artificial para combatir la desinformación]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> ha sido seleccionada por el </span><em><span>JournalismAI Innovation Challenge (Reto de PeriodismoIA e Innnovación), </span></em><span>una iniciativa internacional respaldada por la </span><strong><span>Google News Initiative,</span></strong><span> para desarrollar</span><strong><span> </span></strong><span>un asistente de inteligencia artificial para </span><strong><span>incrementar la eficiencia y precisión</span></strong><span> en los procesos de verificación que realiza diariamente.&nbsp;</span></p><p><span>La fundación fue elegida junto a&nbsp; </span><strong><span>35 organizaciones a nivel mundial, entre más de 700 candidaturas de 22 países, </span></strong><span>que también desarrollarán soluciones de inteligencia artificial aplicadas al periodismo.</span></p><p><span>La herramienta que desarrollará la fundación utilizará tecnologías que permitirán explorar rápidamente grandes volúmenes de contenido, detectar patrones de desinformación, relacionar nuevas afirmaciones con desmentidos previos y proponer expertos relevantes y formatos óptimos de respuesta.</span></p><p><span>De esta forma el equipo de periodistas de </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> podrá dar una respuesta más rápida y eficaz a la ciudadanía ante la propagación de bulos. El proyecto forma parte del compromiso de la fundación con la innovación, la colaboración internacional y el fortalecimiento de un periodismo riguroso, independiente y adaptado a los desafíos del entorno digital actual ante la desinformación&nbsp;</span></p><p><strong><span>¿Quién financia y con cuánto dinero este proyecto?</span></strong></p><p><span>“AI Assistant for Fact-Checkers” es un proyecto financiado al 100% por</span><em><span> JournalismAI Innovation Challenge</span></em><span>. El importe total del financiamiento es de 50.000 € por 9 meses hasta finales de 2025.&nbsp;</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250507/maldita-journalism-ai-reto-periodismo-innovacion/</link>
      <pubDate>Wed, 07 May 2025 13:07:05 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/05/681b3e19b42b7diseno-sin-titulo-13-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Fundación Maldita.es participa en el proyecto MILD para combatir la desinformación hacia personas migrantes y racializadas]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> participa en el proyecto, co-financiado por la Unión Europea, </span><em><span>MILD, More correct Information, Less Discrimination </span></em><span>(Más información correcta, menos discriminación), que busca mejorar cómo se informa sobre personas migrantes, refugiadas y racializadas, para reducir la desinformación y los discursos de odio en torno a estos colectivos.</span></p><p><span>Liderado por la organización italiana Lunaria, MILD realizará formaciones a periodistas, estudiantes de periodismo y activistas de organizaciones sociales en Italia, Malta, Grecia y España. El objetivo es que puedan identificar, denunciar y contrarrestar la desinformación y los mensajes discriminatorios que aparecen en medios y redes cuando se habla de migración y racismo a través de contenidos precisos y basados en hechos y datos.&nbsp;</span></p><p><span>Para lograrlo, el proyecto hará un análisis de la situación en cada país sobre cómo se representa a las personas migrantes y racializadas en los medios y la identificación de narrativas desinformadoras comunes, que tendrán como resultado una guía de de buenas prácticas para promover una comunicación responsable e inclusiva.&nbsp;</span></p><h2>¿Qué aportará la Fundación <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a>?</h2><p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> utilizará su experiencia en verificación y educación mediática para crear contenidos educativos sobre desinformación para formaciones en línea. También participará en la investigación sobre el contexto mediático español en torno a la migración, y colaborará en la organización de encuentros en España con actores clave del ámbito informativo y social y en la difusión en español de las herramientas, materiales y aprendizajes del proyecto.&nbsp;</span></p><h2>¿Quién participa en el proyecto?</h2><p><span>El consorcio está conformado por las siguientes organizaciones:&nbsp;</span></p><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lunaria.org/"><span>Lunaria </span></a><span>(Italia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.cartadiroma.org/"><span>Associazione Carta di Roma</span></a><span> (Italia)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.africanmediamalta.com/"><span>African Media Association Malta</span></a><span> (Malta)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.antigone.gr/en/angigone-ngo/"><span>ANTIGONE </span></a><span>(Grecia)</span></p></li><li><p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> (España)&nbsp;</span></p></li></ul><h2>¿Cuánto recibirá <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> para realizar el proyecto? </h2><p><span>MILD es un proyecto co-financiado con 250.000 € por el programa Erasmus+ de la Unión Europea (Convenio de subvención: 2024-1-IT02-KA220-ADU-000153626). La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> recibirá 60.343 €&nbsp; para llevar a cabo las actividades asignadas entre 2025 y 2027.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250507/maldita-mild-desinformacion-migrantes/</link>
      <pubDate>Wed, 07 May 2025 12:50:06 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/04/680b91dfc20bediseno-sin-titulo-11-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es participa en el proyecto europeo "ENDGAME" para enseñar a jóvenes a identificar y desmontar la desinformación a través del juego]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> participa en </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://endgameproject.github.io/"><strong><em><span>ENDGAME: Escaping New Disinformation through Gamified cross-border Media literacy Education</span></em></strong></a><strong><span> (</span></strong><span>ENDGAME: Escapando de la nueva desinformación a través de la educación gamificada transfronteriza en alfabetización mediática), un proyecto europeo liderado por la Universidad de Finlandia Oriental (UEF) que busca ayudar a la juventud a desarrollar pensamiento crítico y a crear una ciudadanía digitalmente responsable con la creación de </span><strong><span>escape rooms educativos</span></strong><span> que simulan situaciones reales en las que consumimos información.</span></p><p><span>El objetivo de ENDGAME es que jóvenes de Finlandia, Serbia y España aprendan a reconocer la desinformación en internet. Para ello, se diseñarán </span><strong><span>escape rooms interactivos</span></strong><span>, es decir, juegos educativos en los que hay que superar distintos retos dentro de un escenario ficticio, pero muy parecido a la vida real.</span></p><p><span>A través de estos juegos, adaptados a cada contexto, los participantes aprenderán a distinguir la desinformación y los contenidos manipulados, a reconocer información generada por inteligencia artificial o a entender los riesgos de compartir datos personales en redes sociales.</span></p><p><span>Además, se organizarán talleres con jóvenes y comunidades locales, que ayudarán a elegir los temas más importantes que deberían aparecer en los juegos.</span></p><p><span>ENDGAME se desarrollará a lo largo de 24 meses, entre marzo de 2025 y febrero de 2027, y se espera que las actividades del proyecto lleguen a más de mil de jóvenes y educadores a través de talleres, competiciones, seminarios web y eventos.</span></p><p><strong><span>¿Qué hará la Fundación </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span>?</span></strong></p><p><em><span>La Fundación </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><em><span>, </span></em><span>quien ya ha desarrollado</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/migracion/20220706/escaperoom-fabrica-bulos-desinformacion-migrante/"><span> escapes rooms educativos sobre desinformación</span></a><span>, participará en todo el proceso de diseño y creación de estos nuevos juegos, además de impartir formaciones&nbsp; y promocionar los resultados.&nbsp;</span></p><p><span>En concreto, trabajará en diseñar escenarios educativos que reflejen situaciones reales relacionadas con la desinformación, en dar a conocer el proyecto a través de sus redes y medios y en organizar actividades en España, junto con la Universidad Politécnica de Madrid (UPM): como competiciones en colegios, eventos abiertos en espacios públicos y presentaciones en ferias educativas y congresos científicos.</span></p><h2><span>¿Quiénes participan en ENDGAME?</span></h2><ul class="list-disc"><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.uef.fi/fi"><span>University of Eastern Finland</span></a><span> (UEF, Finlandia) – Coordinador del proyecto.</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.upm.es/"><span>Universidad Politécnica de Madrid</span></a><span> (UPM, España)</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.metropolitan.ac.rs/en/about-metropolitan-university/"><span>Universidad Metropolitana de Belgrado</span></a><span> (BMU, Serbia).</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://faktabaari.fi/in-english/"><span>Avoin Yhteiskunta ry </span></a><span>(Faktabaari, Finlandia).</span></p></li><li><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://novinarska-skola.org.rs/"><span>Novosadska Novinarska Skola</span></a><span> (FNT, Serbia).</span></p></li><li><p><span>Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a></p></li></ul><h2><span>¿Cuánto recibirá Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> para realizar el proyecto?</span></h2><p><span>El proyecto, co-financiado por la Unión Europea a través del programa REA-CROSS-2024- MEDIALITERACY cuenta con un presupuesto total de 712.831,86 €, de los cuales 498.982,30 € son subvencionados por la UE.&nbsp; La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> recibirá,&nbsp; del monto co-financiado por la UE,&nbsp; 87.317,67 € durante los dos años de proyecto.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250425/endgame-juego-contra-desinformacion/</link>
      <pubDate>Fri, 25 Apr 2025 16:37:05 +0200</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/04/680b9d77106e6endgame-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Why Meta is about to repeat Twitter's mistakes with its Community Notes]]></title>
      <description><![CDATA[<p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250313/meta-notas-comunidad-anuncio-errores/">Este artículo también está disponible en español.</a></p><p><span>Meta </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2025/03/testing-begins-community-notes-facebook-instagram-threads/"><span>has announced</span></a><span> that, starting March 18, its Community Notes program will begin operating in the U.S. for Facebook, Instagram, and Threads. It will launch in a test mode, allowing a select group of users to propose notes, but these will not be publicly displayed for now.</span></p><p><span>As of that date, Meta’s independent fact-checking program in the U.S. will officially end. This program collaborated with independent fact-checkers who could label false content or content that needed context on Meta’s platforms, displaying warnings to users. Only fact-checkers accredited by the International Fact-Checking Network (</span><a target="_blank" rel="noopener noreferrer nofollow" href="http://ifcn.org"><span>IFCN</span></a><span>) or the European Standards Fact-Checking Network (</span><a target="_blank" rel="noopener noreferrer nofollow" href="http://efcsn.com"><span>EFCSN</span></a><span>) could participate. These organizations ensure that fact-checkers adhere to </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/code-of-standards/"><span>international standards</span></a><span> of editorial quality, impartiality, and transparency.</span></p><p><span>According to Meta, its Community Notes will use the same visibility algorithm as Twitter (X), meaning that notes will only become visible when users who typically disagree find the note useful. This approach previously led to situations like the floods in Valencia, where </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20241127/dana-notas-comunidad-x-twitter/"><span>over 90%</span></a><span> of debunked hoaxes by </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> did not have visible notes, despite accumulating 50 million impressions. During the last European elections, this figure was </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>85%</span></a><span>.</span></p><h2><span>Community Notes can work, but not like this</span></h2><p><span>Two months ago, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250120/community-notes-factcheckers-together-work/"><span>Maldita explained</span></a><span> why we like the idea of community notes but also why we believe X's model has significant issues. We also provided recommendations for an effective community notes system. Now, we see that Meta’s new program repeats many of Elon Musk’s mistakes:</span></p><div class="raw-html-node"><div class="flourish-embed flourish-table" data-src="visualisation/22097944"><script src="https://public.flourish.studio/resources/embed.js"></script><noscript>&lt;img src="https://public.flourish.studio/visualisation/22097944/thumbnail" width="100%" alt="table visualization" /&gt;</noscript></div><script src="https://public.flourish.studio/resources/embed.js"></script></div><p><span>In its announcement, Meta does not clarify key aspects of how Community Notes will work. For example, it does not mention whether there will be an appeal process if a user believes they received an unfair note—something that existed in the independent fact-checking program.</span></p><h2><span>The end of independent fact-checking on Meta</span></h2><p><span>In justifying its decision, Meta claims it expects Community Notes to be "less biased than the independent fact-checking program they replace." However, the reality is that </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/news/2025-01-07_efcsn-disappointed-by-end-to-metas-third-party-fact-checking-program-in-the-us-condemns-statements-linking-fact-checking-to-censorship/"><span>Meta never criticized its collaboration with fact-checkers until Donald Trump won the November 2024</span></a><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/news/2025-01-07_efcsn-disappointed-by-end-to-metas-third-party-fact-checking-program-in-the-us-condemns-statements-linking-fact-checking-to-censorship/"><span>elections</span></a><span>—neither publicly nor privately. </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2024/02/how-meta-is-preparing-for-the-eus-2024-parliament-elections/"><span>Just months before</span></a><span>, the company was still defending the program's effectiveness, as it had for years. In its own transparency reports, Meta stated that fact-checkers had an error rate of 3.15%, while other content moderation decisions by Meta reached nearly 90%.</span></p><p><span>By announcing the end of its fact-checking program in the U.S. and the launch of Community Notes, Meta says its goal is to "eventually implement this new approach for users worldwide." However, for now, it will maintain its collaboration with fact-checkers outside the U.S., including in Spain, where </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> is part of the independent fact-checking program.</span></p><p><span>In any case, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250213/community-notes-factcheckers-impact-report/"><span>a study by Fundación </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> on X's Community Notes highlights that fact-checkers are the third most-used source worldwide and that they generate higher trust among users.</span></p><p><span>TRANSPARENCY: Since 2019, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20190312/maldita-es-se-incorpora-al-programa-de-verificacion-externo-de-facebook-11-preguntas-y-respuestas-sobre-lo-que-vamos-a-hacer/"><span>participates</span></a><span> in Meta’s third party fact-checking program.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250313/meta-community-notes-announcement-mistakes/</link>
      <pubDate>Thu, 13 Mar 2025 16:51:18 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/03/67d2fe58a1be1meta-community-notes-maldita-mistakes-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Por qué Meta está a punto de repetir los errores de Twitter en sus Notas de la Comunidad]]></title>
      <description><![CDATA[<p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250313/meta-community-notes-announcement-mistakes/">This article is also available in English</a>.</p><p><span>Meta </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2025/03/testing-begins-community-notes-facebook-instagram-threads/"><span>ha anunciado</span></a><span> que el próximo día 18 de marzo empezará a funcionar en EEUU su programa de Notas de la Comunidad para Facebook, Instagram y Threads. Lo hará en modo de pruebas, dejando que unos cuantos usuarios propongan notas, pero que no se mostrarán públicamente de momento.&nbsp;</span></p><p><span>Desde ese día, acaba oficialmente en EEUU el programa de verificación independiente de Meta en el que colaboraba con fact-checkers independientes para que estos pudieran etiquetar en sus plataformas contenido falso o que necesitaba contexto para que se mostraran advertencias a los usuarios. Sólo podía entrar en el programa los verificadores acreditados por la International Fact-Checking Network (</span><a target="_blank" rel="noopener noreferrer nofollow" href="http://ifcn.org"><span>IFCN</span></a><span>) o la European Standards Fact-Checking Network (</span><a target="_blank" rel="noopener noreferrer nofollow" href="http://efcsn.com"><span>EFCSN</span></a><span>), que vigilan que los fact-checkers cumplan con </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/code-of-standards/"><span>estándares internacionales</span></a><span> de calidad editorial, apartidismo y transparencia.</span></p><p><span>Según la propia Meta, sus Notas de la Comunidad empezarán usando el mismo algoritmo de visibilidad que usa Twitter (X), por el que las notas sólo se hacen visibles cuando usuarios que normalmente están en desacuerdo se muestran coincidentes en que la nota es útil. Una decisión que provocó que, por ejemplo durante la DANA de Valencia, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20241127/dana-notas-comunidad-x-twitter/"><span>más del 90%</span></a><span> de los bulos desmentidos por </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> no tuvieran notas visibles aunque acumularan 50 millones de impresiones. En las últimas elecciones europeas, fue </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>el 85%</span></a><span>.</span></p><h2><span>Las notas de la comunidad pueden funcionar, pero así no</span></h2><p><span>Hace dos meses </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>en Maldita os contamos</span></a><span> por qué nos gusta mucho la idea de las notas de la comunidad, pero por qué nos parecía que el modelo que ha elegido X tiene muchos problemas. También dábamos una serie de recomendaciones para un modelo de notas de la comunidad que funcionara y hoy vemos que el nuevo programa de Meta repite muchos de los errores de Elon Musk:&nbsp;</span></p><div class="raw-html-node"><div class="flourish-embed flourish-table" data-src="visualisation/22096825"><script src="https://public.flourish.studio/resources/embed.js"></script><noscript>&lt;img src="https://public.flourish.studio/visualisation/22096825/thumbnail" width="100%" alt="table visualization" /&gt;</noscript></div><script src="https://public.flourish.studio/resources/embed.js"></script></div><p><span>En su anuncio, Meta no aclara otros aspectos clave de cómo funcionarán las notas de la comunidad: por ejemplo, no dice si existirá un proceso de apelación si un usuario considera que se le ha puesto una nota injustificada, como era el caso en el programa de fact-checking independiente.</span></p><h2><span>El fin del fact-checking independiente en Meta</span></h2><p><span>A la hora de justificar sus decisiones, Meta insiste en que espera que las Notas de la Comunidad “sean menos parciales que el programa de verificación independiente que sustituyen”, pero la realidad es que </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/news/2025-01-07_efcsn-disappointed-by-end-to-metas-third-party-fact-checking-program-in-the-us-condemns-statements-linking-fact-checking-to-censorship/"><span>Meta nunca criticó el programa de colaboración con verificadores hasta que Donald Trump ganó las elecciones en noviembre de 2024</span></a><span>, ni en público ni con los verificadores en privado. </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2024/02/how-meta-is-preparing-for-the-eus-2024-parliament-elections/"><span>Sólo unos meses</span></a><span> antes la compañía defendía su eficacia como ha venido haciendo desde hace años y, en sus propios informes de transparencia, ha dicho que la tasa de error de los verificadores es del 3,15% cuando otras decisiones de moderación de contenidos de Meta alcanzan casi el 90%.</span></p><p><span>Al anunciar el fin del programa de verificación en EEUU y el lanzamiento de las Notas de la Comunidad, Meta dice que su intención es acabar por “implantar este nuevo enfoque para nuestros usuarios en todo el mundo”, pero que de momento mantendrá su colaboración con los fact-checkers fuera de EEUU. Esta decisión incluye a España, donde </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> es parte de ese programa de verificación independiente. En cualquier caso, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250213/notas-comunidad-factcheckers-impacto-informe/"><span>un estudio de la Fundación </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> sobre las Notas de la Comunidad en X aclara que los verificadores son la tercera fuente más usada a nivel mundial y que suscitan más confianza por parte de los usuarios.</span></p><p>TRANSPARENCIA: <a target="_blank" rel="noopener noreferrer nofollow" href="">Maldita.es</a> <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20190312/maldita-es-se-incorpora-al-programa-de-verificacion-externo-de-facebook-11-preguntas-y-respuestas-sobre-lo-que-vamos-a-hacer/">participa desde 2019</a> en el programa de verificación de datos externo de Meta.</p>]]></description>
      <link>https://maldita.es/nosotros/20250313/meta-notas-comunidad-anuncio-errores/</link>
      <pubDate>Thu, 13 Mar 2025 16:29:34 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/03/67d2f9995e07emeta-notas-comunidad-maldita-errores-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[From Russia with Hoax: Fundación Maldita.es reúne a expertos para analizar la estrategia de desinformación del Kremlin desde la invasión a Ucrania]]></title>
      <description><![CDATA[<p><span>En el tercer aniversario de la invasión rusa de Ucrania, la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> organizó el </span><strong><span>miércoles 19 de febrero </span></strong><span>la jornada “</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250203/fundacion-malditaes-from-russia-with-hoax-jornada-desinformacion-injerencia-extranjera/"><span>From Russia with Hoax</span></a><span>”, un espacio de discusión y análisis sobre las estrategias de desinformación del Kremlin en la que, con el apoyo de las embajadas de Alemania, Reino Unido y Países Bajos en España, de National Endowment for Democracy (NED) y con la colaboración de Prodigioso Volcán, reunió a académicos, periodistas, representantes gubernamentales y especialistas en desinformación.&nbsp;</span></p><p><br><strong><span>Clara Jiménez Cruz</span></strong><span>, CEO de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, inauguró el evento con una reflexión sobre la incertidumbre que caracteriza nuestra época, un caldo de cultivo perfecto para la desinformación. Por su parte, </span><strong><span>Maria Margarete Gosse</span></strong><span>, embajadora de Alemania, habló de cómo los bulos están en nuestra vida cotidiana y en la necesidad de herramientas para hacer frente a toda esa desinformación. El embajador del Reino Unido, </span><strong><span>Alex Ellis</span></strong><span>, hizo énfasis en la importancia de organizaciones de verificación para contrarrestar la rapidez con la que viaja la desinformación, sobre todo en&nbsp; redes sociales.</span><strong><span> Roel Nieuwenkamp,</span></strong><span> embajador de Países Bajos, resaltó el trabajo que está haciendo su país apoyando a los fact-checkers para reforzar la alfabetización mediática de los ciudadanos.&nbsp;&nbsp;</span></p><p></p><img src="https://files.maldita.es/maldita/uploads/2025/02/67bc9b1bb346bfrh1-webp.webp"><p><br><strong><span>Anna Korbut,</span></strong><span> analista geopolítica y editora de UkraineWorld Español y experta en desinformación, en conversación con Clara Jiménez Cruz, compartió su experiencia sobre los primeros días del conflicto. Korbut se mostró optimista sobre el panorama español, señalando que, aunque las campañas de desinformación rusa han tenido cierta presencia, la sociedad española parece estar "vacunada" contra estas influencias debido a su fuerte compromiso con los valores democráticos. Sin embargo, advirtió que la normalización de la violencia podría generar incertidumbre en la población.&nbsp;</span><br></p><h2><span>España como objetivo de desinformación del Kremlin</span></h2><p></p><p><span>En el panel “España como objetivo de desinformación del Kremlin”, expertos analizaron cómo la propaganda rusa se adapta a distintos públicos y logra calar en la sociedad española. </span><strong><span>Xavier Colás</span></strong><span>, corresponsal de El Mundo para Rusia y Ucrania, explicó que en Europa se busca generar escepticismo sobre la ayuda a Ucrania, mientras que en Rusia se busca justificar las dificultades militares culpando ese apoyo. </span><strong><span>Marina Alonso</span></strong><span>, investigadora del Instituto Universitario General Gutiérrez Mellado, ahondó sobre la capacidad de adaptación que las campañas de desinformación tienen para adaptarse a los contextos políticos y sociales de cada país; antes se centraban en la intervención militar, ahora en ámbitos económicos, sociales y políticos. Por su parte, </span><strong><span>Félix Arteaga</span></strong><span>, investigador del Real Instituto Elcano, enfatizó la importancia de tomar medidas para contrarrestar la desinformación. En este contexto, los ponentes coincidieron en la importancia de la alfabetización mediática para hacer frente a su impacto en España.</span></p><h2></h2><img src="https://files.maldita.es/maldita/uploads/2025/02/67bc9c440ff56frh2-webp.webp"><h2><br><span>La lucha de los verificadores europeos contra la desinformación rusa: combatir las narrativas desinformadoras a través de la colaboración&nbsp;&nbsp;</span></h2><p><span>Verificadores de Ucrania, Rumanía y Georgia expusieron cómo la desinformación rusa afecta sus países y los procesos democráticos. </span><strong><span>Yevhen Fedchenko</span></strong><span>, cofundador de StopFake (Ucrania), señaló que narrativas antes marginales, como </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditateexplica/20240801/pizzagate-mujer-zelenski-transfonterizos-mujeres-ninos/"><span>las acusaciones contra la familia del presidente ucraniano Zelenski</span></a><span> o teorías sobre </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20250203/hunter-biden-emails-laboratorios-ucrania/"><span>laboratorios biológicos</span></a><span> en Ucrania, han pasado al discurso dominante en momentos clave. </span><strong><span>Elena Calistru</span></strong><span>, presidenta de Funky Citizens (Rumanía), explicó cómo la desinformación se ha adaptado a contextos electorales, alineándose con los intereses de Rusia, aunque sin pruebas directas de intervención. Calistru explicó que una de las mayores dificultades en la lucha contra la desinformación radica en la naturaleza sutil de las campañas, lo que hace difícil rastrear a los actores responsables. </span><strong><span>Salome Giunashvili,</span></strong><span> investigadora de Media Development Foundation (Georgia), señaló que en su país las tácticas se han sofisticado, habiendo cobrado una especial relevancia durante</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241025/elecciones-georgia-desinformacion-ue-rusia/"><span> las elecciones del pasado mes de octubre</span></a><span>, generando una sobrecarga informativa para saturar a los verificadores. Todos coincidieron en la necesidad de la cooperación internacional y en la necesidad de capacitación continua para mitigar sus efectos.&nbsp;</span></p><p></p><img src="https://files.maldita.es/maldita/uploads/2025/02/67bc9d1f61455frh3-webp.webp"><h2><br><span>Desafíos y respuestas de los gobiernos Europeos ante las amenazas de la injerencia rusa&nbsp;</span></h2><p><span>Europa se enfrenta a un escenario complejo ante la creciente injerencia rusa en sus democracias, especialmente a través de ciberataques y campañas de desinformación. En un debate moderado por </span><strong><span>Carlos Hernández-Echevarría</span></strong><span>, Adjunto a la dirección y Coordinador de Políticas Públicas de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, expertos analizaron la efectividad de estas estrategias y la amenaza o impacto real que supone. </span><strong><span>Marina Rodríguez</span></strong><span>, jefa de la Unidad de Ciberseguridad del Departamento de Seguridad Nacional de España, mostró preocupación por la desinformación doméstica, y aseguró que Rusia busca deteriorar la confianza en cualquier fuente, adaptando narrativas a distintos contextos. </span><strong><span>Peter Ptassek, </span></strong><span>director de Comunicaciones Estratégicas del Ministerio Federal de Asuntos Exteriores de Alemania, ahondó en que la desinformación rusa no solo intenta influir en la opinión pública sobre temas específicos, como la guerra en Ucrania, sino que tiene un objetivo más amplio: generar inestabilidad en las democracias occidentales. Del mismo modo</span><strong><span> Ingram Davidson,</span></strong><span> Segundo Secretario Político de la embajada británica en Moscú e integrante de la delegación en la OSCE, afirmó que las tácticas de desinformación del gobierno ruso no se limitan a difundir mentiras directas, sino a crear un ecosistema de confusión que hace más difícil discernir la verdad.&nbsp;</span></p><p></p><img src="https://files.maldita.es/maldita/uploads/2025/02/67bc9db1ad6c0frh4-webp.webp"><p></p><h2><span>Tecnología y colaboración para hacer frente a las estrategias de desinformación de Rusia</span><br></h2><p><span>El trabajo conjunto de expertos en diferentes ámbitos y regiones es clave para identificar y frenar la desinformación. </span><strong><span>David Fernández</span></strong><span>, CTO de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, destacó la rapidez y la coordinación de estas campañas, impulsadas por agentes estatales e incluso embajadas rusas a través de sus redes sociales, con contenidos traducidos y difundidos simultáneamente en múltiples idiomas. Subrayó la necesidad de cooperacióny el desarrollo de herramientas tecnológicas como #</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ukrainefacts.org/"><span>UkraineFacts</span></a><span>, la base de datos mundial y colaborativa en la que participan más de 95 organizaciones que han publicado más de 6000 contenidos únicos registrados. Por su parte, </span><strong><span>Coral García</span></strong><span>, Coordinadora de Investigación de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, destacó la colaboración entre verificadores y el uso de la inteligencia artificial para identificar narrativas desinformadoras: "Estos sistemas centralizados nos permiten rastrear y analizar cómo funcionan las campañas de desinformación y enviar alertas tempranas para que los países estén atentos a lo que se viraliza en otros".</span></p><p><span>Durante el evento “From Russia with Hoax” los asistentes pudieron recorrer una exposición &nbsp; en colaboración con </span><strong><span>Prodigioso Volcán</span></strong><span>, que reveló cómo operan las campañas de desinformación y cuáles son las principales estrategias: desde la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.disinfo.eu/doppelganger"><span>operación Doppelgänger</span></a><span>, cuyo fin es clonar medios de comunicación prestigiosos para difundir propaganda rusa, pasando por la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://checkfirst.network/operation-overload-how-pro-russian-actors-flood-newsrooms-with-fake-content-and-seek-to-divert-their-efforts/"><span>Operación Overload</span></a><span> que busca saturar a verificadores e investigadores con una avalancha de solicitudes para verificar contenidos desinformativos creados a propósito para agotar sus recursos y difundir la agenda del Kremlin, el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditobulo/20241106/comitiva-rey-paginas-rusas-arabe/"><span>ecosistema Pravda</span></a><span>, una red de sitios web cuyo objetivo es la difusión de desinformación y propaganda prorrusa </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://edmo.eu/publications/russian-disinformation-network-pravda-grew-bigger-in-the-eu-even-after-its-uncovering/"><span>en diferentes idiomas</span></a><span> de la UE o la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://euvsdisinfo.eu/uploads/2024/05/EEAS-TechnicalReport-False-Facade.pdf"><span>Operación Falsa Fachada</span></a><span>, una red de sitios web falsos que imitan a medios de comunicación occidentales.</span><br></p><img src="https://files.maldita.es/maldita/uploads/2025/02/67bc9e8c639effrh5-webp.webp"><p></p><img src="https://files.maldita.es/maldita/uploads/2025/02/67bc9e92936e0frh6-1-webp.webp"><p></p><p></p><p></p>]]></description>
      <link>https://maldita.es/nosotros/20250224/from-russia-with-hoax-maldita-expertos-estrategia-desinformacion-kremlin-ucrania/</link>
      <pubDate>Mon, 24 Feb 2025 17:31:58 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/02/67bc99f6926a6portadafrh-2-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Faster and more useful: the impact of fact-checkers in X’s Community Notes]]></title>
      <description><![CDATA[<p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250213/notas-comunidad-factcheckers-impacto-informe/"><em>This article is also available in Spanish.</em></a></p><p></p><p><span>A </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>study by Fundación </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> on more than 1,175,000 Community Notes proposed by X users throughout 2024 reveals that 1 in every 27 included a link to an article from a fact-checker accredited by the </span><em><span>European Fact-Checking Standards Network</span></em><span> (EFCSN) or the </span><em><span>International Fact-Checking Network</span></em><span> (IFCN). This makes independent fact-checkers the third most cited source in Community Notes, only behind X itself and Wikipedia.</span></p><div class="raw-html-node"><div class="flourish-embed flourish-table" data-src="visualisation/21553878"><script src="https://public.flourish.studio/resources/embed.js"></script><noscript>&lt;img src="https://public.flourish.studio/visualisation/21553878/thumbnail" width="100%" alt="table visualization" /&gt;</noscript></div><script src="https://public.flourish.studio/resources/embed.js"></script></div><p><span>However, as we </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>previously reported on </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, the issue is not so much the lack of well-founded notes but rather X's policy for displaying them. The platform only makes visible those notes that achieve consensus among users of "</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lesswrong.com/posts/sx9wTyCp5kgy8xGac/community-notes-by-x"><span>different political ideologies</span></a><span>," prioritizing this factor over the accuracy of the note. According to Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> study during the last European elections, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>only 15% of tweets</span></a><span> containing electoral disinformation had a note. Furthermore, of the 20 most viral false posts that received no action from major digital platforms, 18 were on X, each accumulating more than 1.5 million views.</span></p><p><span>Despite this, </span><strong><span>notes citing fact-checking organizations are more likely to be seen</span></strong><span>. While only 8.3% of all proposed notes on X become visible, the percentage rises to 12% when they include a link to a verification organization and to 15.2% if they come from European fact-checkers.</span></p><p><span>These notes also </span><strong><span>become visible faster</span></strong><span>: they are proposed within 4 hours and 25 minutes of the original tweet's publication (23 minutes earlier than the general) and become visible 5 hours and 40 minutes after being rated as useful (24 minutes earlier than usual). In total, notes with fact-checker evidence become visible </span><strong><span>90 minutes earlier than others</span></strong><span>.</span></p><div class="raw-html-node"><div class="flourish-embed flourish-table" data-src="visualisation/21568761"><script src="https://public.flourish.studio/resources/embed.js"></script><noscript>&lt;img src="https://public.flourish.studio/visualisation/21568761/thumbnail" width="100%" alt="table visualization" /&gt;</noscript></div><script src="https://public.flourish.studio/resources/embed.js"></script></div><p><span>You can access the full report with complete evidence through </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>this link</span></a><span>.</span></p><h2><span>How Community Notes could be more effective</span></h2><p><span>Despite these findings highlighting the importance of fact-checking in Community Notes, they also indicate that X’s model deprives users of valuable information by equating "consensus" with "truth," leaving 85% of notes containing fact-checker evidence unseen. Now that platforms like Meta and YouTube are planning to implement similar programs, it is crucial that they </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>do not repeat X’s mistakes and instead collaborate with fact-checking organizations</span></a><span> to:</span></p><ul class="list-disc"><li><p><span>Prioritize notes with quality sources and expert knowledge over "consensus" among users who often disagree.</span></p></li><li><p><span>Speed up the appearance of notes in cases of the most viral and dangerous disinformation.</span></p></li><li><p><span>Prevent organized groups or users with multiple accounts from manipulating the system.</span></p></li><li><p><span>Take action against users who repeatedly spread falsehoods and receive notes, such as removing the blue verification check or their ability to monetize.</span></p></li><li><p><span>Ensure the independence of the process and prevent the removal of notes due to external pressure.</span></p></li></ul>]]></description>
      <link>https://maldita.es/investigaciones/20250213/community-notes-factcheckers-impact-report/</link>
      <pubDate>Thu, 13 Feb 2025 09:12:59 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/02/67ada8d765de3factcheckers-community-notes-impact-maldita-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Más rápidas y más útiles: el impacto de los fact-checkers en las Notas de la Comunidad de Twitter]]></title>
      <description><![CDATA[<p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250213/community-notes-factcheckers-impact-report/"><em>This article is also available in English</em></a><em>.</em></p><p></p><p><span>Un </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>análisis de la </span><em><span>Fundación </span></em></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> sobre las más de 1.175.000 notas de la comunidad propuestas por los usuarios de X a lo largo de 2024 revela que 1 de cada 27 contenía un enlace a un artículo de un fact-checker acreditado por la </span><em><span>European Fact-Checking Standards Network (EFCSN)</span></em><span> o la </span><em><span>International Fact-Checking Network (IFCN)</span></em><span>. Esto sitúa&nbsp; a los verificadores independientes como la tercera fuente más citada en las notas de la comunidad, sólo detrás de la propia X y Wikipedia.</span></p><div class="raw-html-node"><div class="flourish-embed flourish-table" data-src="visualisation/21607978"><script src="https://public.flourish.studio/resources/embed.js"></script><noscript>&lt;img src="https://public.flourish.studio/visualisation/21607978/thumbnail" width="100%" alt="table visualization" /&gt;</noscript></div><script src="https://public.flourish.studio/resources/embed.js"></script></div><p><span>Sin embargo, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>como ya te contamos en </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, el problema no es tanto la falta de notas bien fundamentadas, sino la política de X para mostrarlas. La plataforma sólo hace visibles aquellas que logran consenso entre usuarios de “</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lesswrong.com/posts/sx9wTyCp5kgy8xGac/community-notes-by-x"><span>distintas ideologías políticas</span></a><span>”, dándole más importancia a este factor que a la veracidad de la nota. Según el estudio de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> durante las últimas elecciones europeas, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>sólo el 15% de los tuits con desinformación electoral tenían una nota</span></a><span>. Además, de las 20 publicaciones falsas más virales que no recibieron ninguna acción por parte de las grandes plataformas digitales, 18 estaban en X y acumulaban más de 1,5 millones de visualizaciones cada una.</span></p><p><span>A pesar de esto, </span><strong><span>las notas que citan a organizaciones de fact-checking tienen más probabilidades de ser vistas</span></strong><span>. Mientras que sólo el 8,3% de todas las notas propuestas en X se vuelven visibles, el porcentaje sube al 12% cuando incluyen un enlace a una organización de verificación y al 15,2% si proviene de verificadores europeos.&nbsp;</span></p><p><span>Estas notas además </span><strong><span>aparecen más rápido</span></strong><span>: se proponen en 4 horas y 25 minutos tras la publicación del tuit original (23 minutos antes que lo general) y se hacen visibles en 5 horas y 40 minutos tras ser calificadas como útiles (24 minutos antes que la media). En total, las notas con evidencia de fact-checkers </span><strong><span>se hacen visibles 90 minutos antes que las demás</span></strong><span>.</span></p><div class="raw-html-node"><div class="flourish-embed flourish-table" data-src="visualisation/21608022"><script src="https://public.flourish.studio/resources/embed.js"></script><noscript>&lt;img src="https://public.flourish.studio/visualisation/21608022/thumbnail" width="100%" alt="table visualization" /&gt;</noscript></div><script src="https://public.flourish.studio/resources/embed.js"></script></div><p><span>Puedes acceder al </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/02/maldita_informe_community_notes_2024.pdf"><span>informe en inglés con la evidencia completa</span></a><span> a través de este enlace.</span></p><h2><span>Cómo podrían ser más efectivas las notas de la comunidad&nbsp;</span></h2><p><span>A pesar de estos datos sobre la importancia del fact-checking en las notas de la comunidad, estos también indican que el modelo de X priva a los usuarios de mucha información valiosa al equiparar “consenso” con “verdad”, dejando sin mostrar el 85% de las notas con evidencia de fact-checkers. Ahora que plataformas como Meta y YouTube planean implementar programas similares, es crucial que </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>no repitan los errores de X y colaboren con organizaciones de fact-checking</span></a><span> para:</span></p><ul class="list-disc"><li><p><span>Favorecer las notas con fuentes de calidad y conocimiento experto más que el “consenso” entre usuarios que acostumbran estar en desacuerdo</span></p></li><li><p><span>Agilizar la aparición de notas en casos de las desinformaciones más virales y peligrosas</span></p></li><li><p><span>Impedir que grupos organizados o usuarios con varias cuentas manipulen el sistema</span></p></li><li><p><span>Tomar acción contra usuarios que mienten y reciben notas repetidamente, como por ejemplo retirar el check azul de verificación o la capacidad de monetizar</span></p></li><li><p><span>Garantizar la independencia del proceso y evitar la eliminación de notas por presiones externas</span></p></li></ul>]]></description>
      <link>https://maldita.es/investigaciones/20250213/notas-comunidad-factcheckers-impacto-informe/</link>
      <pubDate>Thu, 13 Feb 2025 08:58:48 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/02/67ada4c2d3511users-2-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[What was Facebook like before independent fact-checking (and why we don't want to go back to that)]]></title>
      <description><![CDATA[<p><em><span>A </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250205/facebook-antes-verificacion-desinformacion/"><em><span>version of this article in Spanish</span></em></a><em><span> is available here.&nbsp;</span></em></p><p><span>Meta's second-in-command, Joel Kaplan, almost confirmed today that the company is </span><strong><span>ending its </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.politico.eu/article/meta-chief-lobby-eu-tech-artificial-intelligence-fines-marketplace-joel-kaplan/"><strong><span>Third-Party Fact-Checking Program</span></strong></a><span> globally, affecting Facebook, Instagram and Threads. The announcement comes after CEO </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.facebook.com/watch/?v=1525382954801931"><span>Mark Zuckerberg justified its end in the US</span></a><span> on January 7, stating that "fact-checkers have simply been </span><strong><span>too politically biased</span></strong><span> and have </span><strong><span>destroyed more trust</span></strong><span> than they created, especially in the US”,&nbsp; something that </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250107/efcsn-condena-ceo-meta-censura/"><span>isn't true</span></a><span>.</span></p><p><span>Since its inception in 2016, Meta has </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2024/02/how-meta-is-preparing-for-the-eus-2024-parliament-elections/"><span>repeatedly explained</span></a><span> why the </span><strong><span>fact-checking program works</span></strong><span>, but before that, Facebook had operated for </span><strong><span>12 years without collaborating with fact-checkers</span></strong><span>. The platform only changed course in 2016 because the immense problems caused by disinformation on the platform became evident, and the consequences, such as the manipulation to </span><strong><span>influence the results of the 2016 US presidential election</span></strong><span> and other scandals, could not be ignored.</span></p><h2><span>What forced Facebook to create the independent fact-checking program</span></h2><p><span>On December 15, 2016 </span><strong><span>Facebook </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://web.archive.org/web/20250111082608/https://about.fb.com/news/2016/12/news-feed-fyi-addressing-hoaxes-and-fake-news/"><strong><span>announced a series of measures</span></strong></a><strong><span> </span></strong><span>against hoaxes and manipulation,</span><strong><span> </span></strong><span>including </span><strong><span>collaboration with external fact-checkers</span></strong><span>. Although the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.snopes.com/news/2016/01/14/fake-news-sites/"><span>platform's issues with disinformation</span></a><span>, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.nytimes.com/2012/11/13/technology/false-posts-on-facebook-undermine-its-credibility.html"><span>fake profiles</span></a><span>, and the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.buzzfeednews.com/article/craigsilverman/can-facebook-trending-fight-off-fake-news#.ixwjGwzgb3"><span>algorithm's recommendation of misleading content</span></a><span> had already been reported before, it was the </span><strong><span>2016 US presidential election</span></strong><span> that solidified concerns about the effect of social media (and disinformation on it) on democracy.</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://pmc.ncbi.nlm.nih.gov/articles/PMC7239673/"><span>Various studies</span></a><span> suggest that Facebook </span><strong><span>redirected voters to disinformation websites</span></strong><span> and, in the three months before the election, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.buzzfeednews.com/article/craigsilverman/viral-fake-election-news-outperformed-real-news-on-facebook#.cwwgb7EX0"><span>fake articles generated more engagement</span></a><span> on the social network than articles from The New York Times, The Washington Post, Huffington Post, NBC News, and others. Other research revealed that </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://racz.statistics.northwestern.edu/FRRMH17CIKM.pdf"><span>Facebook and Twitter were the primary sources of traffic to fake articles</span></a><span>, with Facebook responsible for 99% of this. Russian interference in the elections also took advantage of the social network: </span><strong><span>ads purchased by Russian agents</span></strong><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.washingtonpost.com/news/the-switch/wp/2017/10/05/russian-propaganda-may-have-been-shared-hundreds-of-millions-of-times-new-research-says/"><span>reached 10 million users</span></a><span>.</span></p><p><span>These problems were </span><strong><span>further confirmed</span></strong><span> two years later by the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html"><span>Facebook-Cambridge Analytica scandal</span></a><span>. A British company hired by Trump's campaign used </span><strong><span>Facebook user data</span></strong><span> to create </span><strong><span>political ads during the presidential election</span></strong><span> and show them to particularly impressionable users. This didn’t only happen in the US: the company was also accused of </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=OQSMr-3GGvQ"><span>interfering in the Brexit referendum in 2016</span></a><span> and using Facebook data to show propaganda, often with disinformation.</span></p><h2><span>Facebook and fact-checkers</span></h2><p><span>In light of all this, on November 17, 2016, the International Fact-Checking Network (IFCN) </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.poynter.org/fact-checking/2016/an-open-letter-to-mark-zuckerberg-from-the-worlds-fact-checkers/"><span>sent a letter</span></a><span> to Zuckerberg proposing a </span><strong><span>collaboration with fact-checkers</span></strong><span>: "We believe that Facebook should start an open conversation on the principles that could underpin a </span><strong><span>more accurate news ecosystem</span></strong><span> on its News Feed. The </span><strong><span>global fact-checking community is eager to take part</span></strong><span> in this conversation."</span></p><p><span>By then,</span><strong><span> disinformation circulating on Facebook</span></strong><span> had already become a global problem, </span><strong><span>affecting various regions</span></strong><span> around the world. The IFCN's letter </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.poynter.org/fact-checking/2016/an-open-letter-to-mark-zuckerberg-from-the-worlds-fact-checkers/"><span>warned that</span></a><span>: “Popular posts carrying fake health claims have served to peddle bogus medical cures and undermine </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://africacheck.org/fact-checks/reports/fake-news-alert-male-circumcision-not-linked-cancer-penis"><span>public health campaigns</span></a><span> around the world. False claims carried online have been used to incite violence in countries such as </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://africacheck.org/fact-checks/reports/boko-haram-massacre-image-fake"><span>Nepal and Nigeria</span></a><span>. Spurious allegations on Facebook led to a woman being </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://g1.globo.com/sp/santos-regiao/noticia/2014/05/mulher-espancada-apos-boatos-em-rede-social-morre-em-guaruja-sp.html"><span>beaten to death in Brazil</span></a><span>.”</span></p><p><span>Almost a month later, Facebook announced a collaboration with fact-checkers recognized by the IFCN, such as Snopes, PolitiFact, The Associated Press, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://FactCheck.org"><span>FactCheck.org</span></a><span>, and ABC News, who would review content reported by users as false. This marked </span><strong><span>the birth of the independent fact-checking program</span></strong><span> we know today.</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/politicas-publicas/20240122/el-fact-checking-funciona/"><span>As explained by </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, fact-checkers have never been able to delete content from Facebook, and we believe that deleting misinformation from social media is, in most cases, a mistake. Instead, what fact-checkers like Maldita propose is that platforms use labels or warnings like "This content has been rated false by an independent fact-checker," with a link to the evidence explaining why, so that users can have more information and make their own decisions. We believe that freedom of expression also includes being allowed to lie and admit that your lie can be refuted. In the end, fact-checkers provide information, they don’t take it away.</span></p><h2><span>The independent fact-checking program protects people and democracy</span></h2><p><span>It is in this 2016 context that </span><strong><span>Meta's independent fact-checking program emerged</span></strong><span>, providing users with information about the veracity of the posts they encounter. Today, </span><strong><span>it operates in over 100 countries</span></strong><span>, with fact-checkers analyzing and labeling </span><strong><span>potentially false or misleading content</span></strong><span> on Facebook, Instagram, and Threads based on </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.facebook.com/business/help/341102040382165?id=673052479947730"><span>its level of falsity.</span></a></p><p><span>The</span><strong><span> results of the program are positive, according to the Meta itself</span></strong><span>. “Between July and December 2023, for example, over 68 million pieces of content viewed in the EU on Facebook and Instagram had fact checking labels. When a fact-checked label is placed on a post, </span><strong><span>95% of people don’t click through to view it</span></strong><span>”,&nbsp; </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2024/02/how-meta-is-preparing-for-the-eus-2024-parliament-elections/"><span>Meta highlighted during the 2024 European Parliament elections</span></a><span>.</span></p><p><span>Despite this, Zuckerberg insists that fact-checkers have "destroyed trust." "After Trump was elected for the first time in 2016, the mainstream media wrote non-stop about how </span><strong><span>disinformation was a threat to democracy</span></strong><span>. We tried in good faith to address those concerns without becoming arbiters of the truth," the CEO stated in his announcement.</span></p><p><span>But </span><strong><span>it wasn’t just the media</span></strong><span> that raised alarms. It was also academic researchers and authorities who thoroughly investigated the connection between Facebook and the 2016 election results. In fact, the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.bbc.com/mundo/noticias-49093124"><span>US Federal Trade Commission</span></a><span> fined Facebook $5 billion for its involvement in the Cambridge Analytica scandal. The </span><strong><span>threat disinformation poses to democracy</span></strong><span> is not just an idea of journalists or the media; it’s a reality.</span></p><p><span>“With several European countries heading to the polls in 2025, </span><strong><span>platforms retracting from the fight against mis- and disinformation</span></strong><span> allows and potentially even </span><strong><span>invites election interference</span></strong><span>, especially from foreign actors”, responded the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://efcsn.com/news/2025-01-07_efcsn-disappointed-by-end-to-metas-third-party-fact-checking-program-in-the-us-condemns-statements-linking-fact-checking-to-censorship/"><span>European Fact-Checking Standards Network</span></a><span> (EFCSN) to Zuckerberg’s statements.</span></p><p><span>Considering </span><strong><span>how Facebook was before the independent fact-checking program</span></strong><span>, the title of the video posted by the CEO, "⁠It's time to get back to our roots around free expression", takes on </span><strong><span>another meaning</span></strong><span>. Those roots, at least those from 2016, allowed the social network to be used to decide an election (if not several). The development of the</span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250120/community-notes-factcheckers-together-work/"><span> Community Notes system</span></a><span> and collaboration with fact-checkers that will replace the program will be crucial in </span><strong><span>determining whether we go back to 2016 or not</span></strong><span>.</span></p><h2><span>Verifiers and 'community notes'&nbsp;</span></h2><p><span>At </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span>, we believe that </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>the work of </span><strong><span>fact-checkers and Community Notes</span></strong><span> not only do not exclude each other but should </span><strong><span>complement each other</span></strong></a><span>. It’s true that the system as it exists on X is not perfect: for example, more than </span><strong><span>90% of tweets with falsehoods about the DANA</span></strong><span> debunked by Maldita </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20241127/dana-notas-comunidad-x-twitter/"><span>had no Community Notes</span></a><span>, but that doesn’t always mean users aren’t proposing those notes—it just indicates that</span><strong><span> X's algorithm isn't showing them</span></strong><span>. Why?</span></p><p><span>The proposed notes are voted as helpful or not by users participating in Community Notes, but the </span><strong><span>algorithm only makes them visible when users who typically disagree</span></strong><span> with each other on note evaluations agree that the specific note is helpful. Essentially, it evaluates the consensus of </span><strong><span>people with "</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lesswrong.com/posts/sx9wTyCp5kgy8xGac/community-notes-by-x"><strong><span>different political ideologies</span></strong></a><strong><span>"</span></strong><span>. On issues that generate more polarization, this </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://communitynotes.x.com/guide/en/under-the-hood/note-ranking-code"><span>emphasis on consensus</span></a><span> almost ensures that many useful Community Notes with</span><strong><span> reliable information never get shown</span></strong><span>.</span></p><p><span>Still, at </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span>, we believe Community Notes can be a good tool against disinformation. Last year, </span><strong><span>over 850 notes citing </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><span>Maldita.es</span></strong></a><strong><span> articles were proposed</span></strong><span> on X, more than any other fact-checker in the European Union. What is needed is for the platforms using them to guarantee a few things:</span></p><ul class="list-disc"><li><p><span>That notes with </span><strong><span>quality sources and expert knowledge</span></strong><span> are favored over the "consensus" among users who often disagree.</span></p></li><li><p><span>That notes </span><strong><span>appear faster </span></strong><span>on the most dangerous and viral disinformation.</span></p></li><li><p><span>That </span><strong><span>organized groups or users </span></strong><span>with multiple accounts are prevented from manipulating the system.</span></p></li><li><p><span>That </span><strong><span>lying and repeatedly receiving notes has consequences</span></strong><span> for the user, such as revoking their blue verification check or the ability to monetize.</span></p></li><li><p><span>That there are guarantees that platforms enabling them </span><strong><span>cannot interfere in the process</span></strong><span> and remove notes due to external pressures.</span></p></li></ul><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>In this article</span></a><span>, we tell you more about our stance on Community Notes.</span></p><p></p><p><span>TRANSPARENCY: Since 2019, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20190312/maldita-es-se-incorpora-al-programa-de-verificacion-externo-de-facebook-11-preguntas-y-respuestas-sobre-lo-que-vamos-a-hacer/"><span>participates</span></a><span> in Meta’s third party fact-checking program.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250205/facebook-before-fact-checkers-disinformation/</link>
      <pubDate>Wed, 05 Feb 2025 14:08:31 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/02/67a361f55998dfacebook-factchecking-program-before-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Cómo era Facebook antes del programa de verificación independiente (y por qué no queremos volver ahí)]]></title>
      <description><![CDATA[<p><em>Una versión en inglés de este artículo se puede consultar en </em><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250205/facebook-before-fact-checkers-disinformation/"><em>este enlace.</em></a></p><p><span>El número 2 de Meta, Joel Kaplan, casi ha confirmado </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.politico.eu/article/meta-chief-lobby-eu-tech-artificial-intelligence-fines-marketplace-joel-kaplan/"><span>el </span><strong><span>fin del programa </span></strong><span>de verificación independiente de Meta</span></a><span> a nivel mundial, que afecta a Facebook, Instagram y Threads. El anuncio llega después de que el CEO </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.facebook.com/watch/?v=1525382954801931"><span>Mark Zuckerberg explicara su cierre en EEUU</span></a><span> el pasado 7 de enero diciendo que “los </span><strong><span>verificadores </span></strong><span>simplemente han tenido </span><strong><span>demasiado sesgo político</span></strong><span> y han </span><strong><span>destruido más confianza</span></strong><span> de la que crearon, especialmente en EEUU”, algo que </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250107/efcsn-condena-ceo-meta-censura/"><span>no es cierto</span></a><span>.</span></p><p><span>Desde su inicio en 2016, la propia Meta </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2024/02/how-meta-is-preparing-for-the-eus-2024-parliament-elections/"><span>ha explicado una y otra vez</span></a><span> por qué el </span><strong><span>programa de verificación funciona, </span></strong><span>pero antes Facebook había funcionado durante </span><strong><span>12 años sin colaborar con fact-checkers</span></strong><span>.</span><strong><span> </span></strong><span>Si cambió de rumbo</span><strong><span> en 2016 fue porque se hicieron evidentes</span></strong><span> los enormes problemas que causaba la desinformación en la plataforma y sus consecuencias, como la manipulación para </span><strong><span>influir en los resultados</span></strong><span> de las </span><strong><span>elecciones presidenciales de EEUU </span></strong><span>en 2016 y otros escándalos</span><strong><span>.</span></strong></p><div class="raw-html-node"><div style="background: #fae251; padding: 15px; border-radius: 20px; margin-top: 20px; margin-bottom: 20px;">
<p style="text-align: center; color: black;  font-size: 21px; margin-bottom: 0;"> <a href="https://api.whatsapp.com/send?phone=34644229319&amp;text=&amp;source=&amp;data=&amp;app_absent="> ¿Crees que te ha llegado un bulo? Verifica en nuestro chatbot de WhatsApp (+34 644 229 319)</a>
</p>
</div></div><h2><span>Lo que obligó a Facebook a crear el programa de verificación independiente</span></h2><p><span>El 15 de diciembre de 2016 </span><strong><span>Facebook </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://web.archive.org/web/20250111082608/https://about.fb.com/news/2016/12/news-feed-fyi-addressing-hoaxes-and-fake-news/"><strong><span>anunció una serie de medidas</span></strong></a><strong><span> </span></strong><span>contra los bulos y la manipulación,</span><strong><span> </span></strong><span>entre ellas la </span><strong><span>colaboración con verificadores externos</span></strong><span>. A pesar de que</span><strong><span> ya se habían denunciado antes los </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.snopes.com/news/2016/01/14/fake-news-sites/"><strong><span>problemas que tenía la plataforma con la desinformación</span></strong></a><span>, los </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.nytimes.com/2012/11/13/technology/false-posts-on-facebook-undermine-its-credibility.html"><span>perfiles falsos</span></a><span> y la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.buzzfeednews.com/article/craigsilverman/can-facebook-trending-fight-off-fake-news#.ixwjGwzgb3"><span>recomendación de contenidos engañosos</span></a><span> por parte del algoritmo, fueron las </span><strong><span>elecciones presidenciales en EEUU de 2016 las que cimentaron la preocupación</span></strong><span> por el efecto que tienen las redes sociales (y la desinformación en ellas) en la democracia.&nbsp;</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://pmc.ncbi.nlm.nih.gov/articles/PMC7239673/"><span>Diversos estudios</span></a><span> sostienen que </span><strong><span>redirigió a los votantes a webs desinformadoras</span></strong><span> y que, en los tres meses anteriores a los comicios, los </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.buzzfeednews.com/article/craigsilverman/viral-fake-election-news-outperformed-real-news-on-facebook#.cwwgb7EX0"><strong><span>artículos falsos generaron más</span><em><span> engagement</span></em></strong></a><span> en la red social que los artículos de The New York Times, The Washington Post, Huffington Post, NBC News y otros. Otra investigación reveló que </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://racz.statistics.northwestern.edu/FRRMH17CIKM.pdf"><strong><span>Facebook y Twitter</span></strong><span> fueron la </span><strong><span>fuente primaria de tráfico a artículos falsos</span></strong></a><span>, con el primero siendo responsable de un 99% de este. La interferencia rusa en los comicios también aprovechó la red social: los </span><strong><span>anuncios comprados </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.washingtonpost.com/news/the-switch/wp/2017/10/05/russian-propaganda-may-have-been-shared-hundreds-of-millions-of-times-new-research-says/"><strong><span>por agentes rusos llegaron a 10 millones</span></strong></a><span> de usuarios.&nbsp;</span></p><p><span>Unos problemas que </span><strong><span>terminó de confirmar</span></strong><span>, dos años después, el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html"><strong><span>escándalo de Facebook- Cambridge Analytica</span></strong></a><span>. Una compañía británica contratada por el equipo de Trump usó los </span><strong><span>datos de usuarios de Facebook </span></strong><span>para crear </span><strong><span>anuncios políticos durante las elecciones </span></strong><span>presidenciales y mostrarlos a usuarios particularmente influenciables. No sólo sucedió en EEUU: la empresa también fue acusada de </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=OQSMr-3GGvQ"><strong><span>interferir en el referéndum del Brexit en 2016</span></strong></a><strong><span> </span></strong><span>y usar los datos de </span><strong><span>Facebook </span></strong><span>para mostrarles propaganda, en muchos casos con desinformaciones.</span></p><h2><span>Facebook y los ‘fact-checkers’</span></h2><p><span>A la luz de todo esto, el 17 de noviembre de 2016 la red internacional de verificadores independientes </span><strong><span>(IFCN)</span><em><span> </span></em></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.poynter.org/fact-checking/2016/an-open-letter-to-mark-zuckerberg-from-the-worlds-fact-checkers/"><strong><span>envió una carta</span></strong></a><strong><span> a Zuckerberg</span></strong><span> que le proponía una</span><strong><span> colaboración con los verificadores</span></strong><span>: “Creemos que Facebook debe comenzar una conversación abierta sobre los principios que podrían sustentar</span><strong><span> un ecosistema de noticias más preciso</span></strong><span> en su ‘News Feed'. La </span><strong><span>comunidad global de verificación de datos está deseosa de</span></strong><span> participar en este debate”.&nbsp;</span></p><p><span>Para entonces la </span><strong><span>desinformación que circulaba en Facebook </span></strong><span>durante esos años era ya un problema global que </span><strong><span>repercutía en distintos lugares</span></strong><span> del planeta. La carta del IFCN </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.poynter.org/fact-checking/2016/an-open-letter-to-mark-zuckerberg-from-the-worlds-fact-checkers/"><span>advertía de que</span></a><span>: “publicaciones populares que contienen afirmaciones de salud falsas han servido para vender curas médicas falsas y socavar </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://africacheck.org/fact-checks/reports/fake-news-alert-male-circumcision-not-linked-cancer-penis"><span>campañas de salud pública </span></a><span>en todo el mundo. Se han utilizado afirmaciones falsas publicadas en línea para incitar a la violencia en países </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://africacheck.org/fact-checks/reports/boko-haram-massacre-image-fake"><span>como Nepal y Nigeria.</span></a><span> Acusaciones falsas en Facebook llevaron a que una mujer fuera </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://g1.globo.com/sp/santos-regiao/noticia/2014/05/mulher-espancada-apos-boatos-em-rede-social-morre-em-guaruja-sp.html"><span>asesinada a golpes en Brasil</span></a><span>”.&nbsp;</span></p><p><span>Casi un mes después, Facebook anunció una colaboración con verificadores reconocidos por IFCN como Snopes, PolitiFact, The Associated Press, </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://FactCheck.org"><span>FactCheck.org</span></a><span> y ABC News, quienes se encargarían de revisar los contenidos denunciados por los usuarios como falsos. De esta forma,</span><strong><span> nació el programa de verificación independiente</span></strong><span> que conocemos hoy.&nbsp;</span></p><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/politicas-publicas/20240122/el-fact-checking-funciona/"><span>Como te hemos explicado en </span></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span>, los verificadores </span><strong><span>nunca han podido borrar contenidos</span></strong><span> de Facebook y creemos que borrar la desinformación de las redes sociales es, en la inmensa mayoría de los casos, un error. En lugar de eso, lo que proponen los verificadores como Maldita es que las </span><strong><span>plataformas usen etiquetas o advertencias</span></strong><span> como “este contenido ha sido calificado como falso por un verificador independiente” con </span><strong><span>un enlace a la evidencia de por qué es así, </span></strong><span>para que los usuarios puedan tener más información y tomar sus propias decisiones. Creemos que la libertad de expresión también es poder mentir; y admitir que tu mentira sea rebatida. En definitiva: los verificadores</span><strong><span> aportamos información, no quitamos</span></strong><span>.&nbsp;</span></p><h2><span>El programa de verificación independiente sirve para proteger a las personas y a la democracia</span></h2><p><span>Es en ese contexto de 2016 en el que </span><strong><span>surge el programa de verificación independiente de Meta</span></strong><span> que entrega información a los usuarios sobre la veracidad de las publicaciones que se encuentran. Hoy </span><strong><span>opera en más de 100 países,</span></strong><span> con verificadores analizando y etiquetando </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.facebook.com/business/help/341102040382165?id=673052479947730"><span>según su grado de falsedad</span></a><strong><span> contenidos potencialmente falsos o engañosos </span></strong><span>en Facebook, Instagram y Threads.&nbsp;</span></p><p><span>Los</span><strong><span> resultados del programa son positivos, según la propia Meta</span></strong><span>. “Entre julio y diciembre de 2023, por ejemplo, más de 68 millones de contenidos vistos en la UE en Facebook e Instagram tenían etiquetas de verificación de datos. Cuando se coloca una etiqueta de hechos verificados en una publicación, </span><strong><span>el 95% de las personas no hacen clic para verlo”</span></strong><span>, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://about.fb.com/news/2024/02/how-meta-is-preparing-for-the-eus-2024-parliament-elections/"><span>destacó Meta durante las elecciones al Parlamento Europeo de 2024</span></a><span>.</span></p><p><span>A pesar de ello</span><strong><span>, Zuckerberg insiste</span></strong><span> en que los </span><strong><span>verificadores han “destruido la confianza”. </span></strong><span>“Después de que Trump fuera elegido por primera vez en 2016, los medios tradicionales escribieron sin parar sobre cómo</span><strong><span> la desinformación era una amenaza para la democracia</span></strong><span>. Intentamos de buena fe abordar esas preocupaciones sin convertirnos en árbitros de la verdad”, afirmó el CEO en su anuncio.&nbsp;</span></p><p><span>Pero</span><strong><span> no fueron sólo los medios </span></strong><span>quienes encendieron las alarmas. También fueron los </span><strong><span>investigadores académicos y las autoridades</span></strong><span> que investigaron a fondo la conexión entre Facebook y los resultados electorales del 2016. De hecho, la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.bbc.com/mundo/noticias-49093124"><span>Comisión Federal de Comercio de EEUU</span></a><span> sancionó a Facebook con una multa de 5.000 millones de dólares por su participación en el escándalo de Cambridge Analytica. La </span><strong><span>amenaza a la democracia que supone la desinformación </span></strong><span>no es solo una idea de los periodistas o de los medios, es una realidad.&nbsp;</span></p><p><span>“Con varios países europeos celebrando elecciones en 2025, las </span><strong><span>plataformas que se retractan de la lucha contra la información errónea </span></strong><span>y la desinformación permiten e incluso </span><strong><span>invitan a la injerencia en sus procesos electorales</span></strong><span>, especialmente por parte de actores extranjeros”, respondió la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250107/efcsn-condena-ceo-meta-censura/"><span>European Fact-Checking Standards Network</span></a><span> (EFCSN) a las declaraciones de Zuckerberg.&nbsp;</span></p><p><span>Considerando </span><strong><span>cómo era Facebook antes del programa de verificación</span></strong><span> independiente, el título del vídeo publicado por el CEO “Es tiempo de </span><strong><span>volver a nuestras raíces sobre la libertad de expresión</span></strong><span>” toma </span><strong><span>otro sentido</span></strong><span>. Esas raíces, por lo menos las del 2016, permitieron que la red social se utilizará para decidir unas elecciones (sino varias). El </span><strong><span>desarrollo del </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><strong><span>sistema de Notas de la comunidad</span></strong></a><span> y la colaboración con verificadores que reemplazará el programa será clave para </span><strong><span>determinar si volvemos al 2016, o no.&nbsp;</span></strong></p><h2><span>Los verificadores y las ‘Notas de la comunidad’&nbsp;</span></h2><p><span>En </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> creemos que el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>trabajo de los </span><strong><span>verificadores y las Notas de la comunidad</span></strong><span> no sólo no se excluyen, sino que</span><strong><span> se deben complementar</span></strong></a><span>. Es cierto que el sistema tal cual existe en X no es perfecto: por ejemplo más del </span><strong><span>90% de los tuits con bulos sobre la DANA </span></strong><span>desmentidos por Maldita</span><em><span> </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/malditatecnologia/20241127/dana-notas-comunidad-x-twitter/"><strong><span>no tenía Notas de la comunidad</span></strong></a><span>, pero muchas veces eso no significa que los usuarios no estén proponiendo esas notas, sólo indica que </span><strong><span>el algoritmo de X no las está mostrando</span></strong><span>. ¿Por qué?</span></p><p><span>Las notas propuestas son votadas como útiles o no por los usuarios que participan en Community Notes, pero el </span><strong><span>algoritmo sólo las hace visibles </span></strong><span>cuando</span><strong><span> usuarios que suelen estar en desacuerdo </span></strong><span>al calificar notas coinciden en que esa nota en concreto es útil. Esencialmente, evalúa el consenso de </span><strong><span>personas con “</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.lesswrong.com/posts/sx9wTyCp5kgy8xGac/community-notes-by-x"><strong><span>diferentes ideologías políticas</span></strong></a><strong><span>”</span></strong><span>. En los temas que generan más polarización, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://communitynotes.x.com/guide/en/under-the-hood/note-ranking-code"><span>ese énfasis en el consenso</span></a><span> prácticamente asegura que muchas Notas de la comunidad </span><strong><span>con información fiable nunca se muestran.</span></strong></p><p><span>Con todo, en </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> creemos que las Notas de la comunidad pueden ser un buen instrumento contra la desinformación. El año pasado se propusieron en X</span><strong><span> más de 850 notas que citaban artículos de </span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><em><span>Maldita.es</span></em></strong></a><span>, más que ningún otro verificador de la Unión Europea. Lo que hace falta es que las plataformas que las usen garanticen algunas cosas:</span></p><ul class="list-disc"><li><p><span>Que se favorezcan las notas con </span><strong><span>fuentes de calidad y conocimiento experto</span></strong><span> más que el “consenso” entre usuarios que acostumbran estar en desacuerdo.</span></p></li><li><p><span>Que las notas</span><strong><span> aparezcan más rápido</span></strong><span> en las desinformaciones más peligrosas y virales.</span></p></li><li><p><span>Que </span><strong><span>se impida a grupos organizados </span></strong><span>o usuarios con varias cuentas manipular el sistema.</span></p></li><li><p><span>Que </span><strong><span>mentir y recibir notas</span></strong><span> repetidamente </span><strong><span>tenga alguna consecuencia </span></strong><span>para el usuario, como por ejemplo retirarle el check azul de verificación o la capacidad de monetizar.</span></p></li><li><p><span>Que existan garantías de que las plataformas que las habiliten </span><strong><span>no pueda interferir en el proceso </span></strong><span>y retirar notas por presiones ajenas a los usuarios.</span></p></li></ul><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20250117/notas-comunidad-verificadores-juntos-funcione/"><span>En este artículo</span></a><span> te contamos </span><strong><span>más sobre nuestra postura</span></strong><span> sobre las Notas de la comunidad.</span></p><p>TRANSPARENCIA: <a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es">Maldita.es</a> <a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/nosotros/20190312/maldita-es-se-incorpora-al-programa-de-verificacion-externo-de-facebook-11-preguntas-y-respuestas-sobre-lo-que-vamos-a-hacer/">participa desde 2019</a> en el programa de verificación de datos externo de Meta.</p>]]></description>
      <link>https://maldita.es/nosotros/20250205/facebook-antes-verificacion-desinformacion/</link>
      <pubDate>Wed, 05 Feb 2025 13:13:13 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/02/67a3550d99ba7portada-facebook-antes-del-programa-verificacion-independiente-meta-3-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es organiza 'From Russia with Hoax', una jornada sobre desinformación e injerencia extranjera]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> organiza la jornada </span><strong><span>“</span><em><span>From Russia with Hoax</span></em><span>”</span></strong><span>, un evento que se llevará a cabo el </span><strong><span>19 de febrero de 2025</span></strong><span>, en Madrid. Este encuentro reunirá a académicos, periodistas, representantes gubernamentales y especialistas en desinformación para abordar la creciente amenaza de las campañas de desinformación impulsadas por Rusia, con un enfoque particular en su impacto en España y en Europa. La jornada se llevará a cabo en </span><strong><span>Espacio Loop21</span></strong><span>, calle de Alcalá 21, Edificio Generali, Planta 8, Madrid, </span><strong><span>de 09:00 a 15:00 horas.</span></strong><span> Este evento es posible gracias al apoyo de las embajadas de Alemania, Reino Unido y Países Bajos en España, de National Endowment for Democracy (NED) y cuenta con la colaboración de Prodigioso Volcán.&nbsp;</span></p><p><span>En el tercer aniversario de la invasión rusa de Ucrania, se analizarán las técnicas FIMI (</span><em><span>Foreign Information Manipulation and Interference</span></em><span>) utilizadas por el Kremlin en su estrategia de injerencia extranjera en diferentes ámbitos. Uno de los puntos clave del evento será analizar cómo las narrativas desinformadoras se han intensificado en los últimos años simultáneamente en diferentes países con tácticas que van desde la clonación de medios occidentales a la creación de una red de sitios web en diferentes idiomas con el fin de difundir contenido desinformativo y amplificarlo.</span></p><p><span>Se abordará cómo esta estrategia de desinformación afecta directamente tanto a nivel europeo como en el ámbito español en particular. Para analizar el contexto europeo, participarán </span><strong><span>Peter Ptassek</span></strong><span>, Director de Comunicaciones Estratégicas del Ministerio Federal de Relaciones Exteriores de Alemania;</span><strong><span> Ingram Davidson</span></strong><span>, Segundo Secretario Político de la Embajada Británica en Moscú/delegación en la OSCE; y </span><strong><span>Marina Rodríguez</span></strong><span>, Jefa de la Unidad de Ciberseguridad y contra la Desinformación del Departamento de Seguridad Nacional de España. En el ámbito español, intervendrán expertos como</span><strong><span> Félix Arteaga</span></strong><span>, investigador del Real Instituto Elcano; </span><strong><span>Marina Alonso Villota</span></strong><span>, investigadora de la Universidad de Bundeswehr de Múnich; y </span><strong><span>Xavier Colás</span></strong><span>, corresponsal de El Mundo para Rusia y Ucrania.&nbsp;</span></p><p><span>La jornada abordará también el papel de los verificadores, fundamentales a la hora de detectar y contrarrestar estos esfuerzos de manipulación. Se contará con la participación de </span><strong><span>Yevhen Fedchenko</span></strong><span>, de Stop Fake (Ucrania), </span><strong><span>Elena Calistru</span></strong><span>, de Funky Citizens (Rumanía) y </span><strong><span>Salome Giunashvili</span></strong><span>, de Media Development Foundation (Georgia) con quienes se discutirá cómo las estrategias de desinformación rusas han afectado a sus países y cómo los verificadores de diferentes regiones han trabajado para desenmascarar estos relatos falsos y desmentir las narrativas impuestas.</span></p><p><span>El evento es gratuito pero con aforo limitado. Las personas&nbsp; interesadas pueden inscribirse a través del siguiente formulario: </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://bit.ly/FromRussiaHoax"><span>https://bit.ly/FromRussiaHoax</span></a><strong><span>&nbsp;</span></strong></p><p><br></p><img src="https://files.maldita.es/maldita/uploads/2025/02/67af0e13533e9agenda-oficial-from-russia-with-hoax-png.png">]]></description>
      <link>https://maldita.es/nosotros/20250203/fundacion-malditaes-from-russia-with-hoax-jornada-desinformacion-injerencia-extranjera/</link>
      <pubDate>Mon, 03 Feb 2025 12:00:00 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/02/67a09c0c450e5portada-frwh-3-png.png</url>
      </image>
    </item>
    <item>
      <title><![CDATA[La Fundación Maldita.es lanza la Agencia de Contenidos de Maldita.es (ACM), una herramienta gratuita para periodistas y medios]]></title>
      <description><![CDATA[<p><span>Desde </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span>, ponemos en marcha la</span><em><span> </span></em><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><strong><em><span>Agencia de Contenidos de </span></em></strong></a><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><strong><em><span>Maldita.es</span></em></strong></a><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><strong><em><span> (ACM)</span></em></strong></a><span>, una </span><strong><span>plataforma gratuita en español </span></strong><span>diseñada para periodistas y medios de comunicación. Su objetivo es </span><strong><span>combatir la desinformación y ampliar el alcance de la información verificada,</span></strong><span> tanto a nivel nacional como internacional.&nbsp;</span></p><p><span>En la </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><em><span>Agencia de Contenidos de Maldita.es</span></em></a><span> encontrarás </span><strong><span>artículos, desmentidos y verificaciones</span></strong><span> elaboradas con nuestra metodología. Cada contenido está respaldado por datos contrastados y preparado para facilitar su republicación, ofreciendo a los medios información confiable y lista para usar en sus publicaciones&nbsp;</span></p><p><span>“La </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://agencia.maldita.es/"><em><span>Agencia de Contenidos de Maldita.es</span></em></a><span> es un paso más en </span><strong><span>nuestra obsesión por escalar el impacto de la lucha contra la desinformación</span></strong><span>”, ha explicado Clara Jiménez Cruz, presidenta de la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span>. “Entendemos que no todo el mundo va a venir a leernos a la web e, igual que hacemos contenidos directamente en redes o luchamos contra la desinformación en </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://api.whatsapp.com/send/?phone=34644229319&amp;text&amp;type=phone_number&amp;app_absent=0"><span>WhatsApp</span></a><span>, queremos apoyar a los medios de comunicación tradicionales a unirse a esta batalla dándoles contenido verificado gratuito que puedan republicar, porque esa es también la manera de que nosotros lleguemos a la gente que ahora mismo no nos lee”.</span></p><h2><strong><span>¿Cómo funciona?&nbsp;</span></strong></h2><p><strong><span>El acceso es gratuito y muy sencillo.</span></strong><span> Si eres periodista, o trabajas en un medio de comunicación, solo necesitas </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://bit.ly/accesoACM"><strong><span>rellenar este formulario</span></strong></a><span> para solicitar tu usuario. Una vez registrado, podrás explorar y utilizar los contenidos directamente desde la plataforma.&nbsp;</span></p><p><span>Hemos diseñado la Agencia para que sea fácil de usar y útil para cualquier medio:&nbsp;</span></p><ul class="list-disc"><li><p><span>Los contenidos están organizados por temas como desinformaciones y bulos, ciencia, tecnología, clima, timos, entre otros.&nbsp;</span></p></li><li><p><span>Puedes buscar artículos por fecha o tipo de contenido.&nbsp;</span></p></li><li><p><span>Los artículos incluyen recursos visuales como gráficos y fotografías listos para integrar en tus publicaciones.&nbsp;</span></p></li></ul><h2><strong><span>Un compromiso con la transparencia y la información verificada</span></strong></h2><p><span>La </span><a target="_blank" rel="noopener noreferrer nofollow" href="agencia.maldita.es"><em><span>Agencia de Contenidos de Maldita.es</span></em></a><span> forma parte de nuestro compromiso por ofrecer información basada en hechos y datos verificados. Con esta nueva herramienta, la Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><em><span>Maldita.es</span></em></a><span> quiere facilitar que más medios puedan sumarse a la lucha contra la desinformación, facilitando la entrega de contenidos basados en hechos y datos contrastados para combatir la desinformación y promover la transparencia.&nbsp;</span></p><p><br></p>]]></description>
      <link>https://maldita.es/nosotros/20250129/maldita-lanza-agencia-contenidos-acm-herramienta-gratuita-periodistas-medios/</link>
      <pubDate>Wed, 29 Jan 2025 12:00:00 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/01/6799126e45cf4acm-portada-1-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Four examples on why fact-checking is "appropriate" on YouTube]]></title>
      <description><![CDATA[<p><span>In 2022, YouTube announced its commitment to collaborate with European fact-checking organizations and integrate their work into the platform to benefit its users. This measure was a key pillar of its participation in the </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://disinfocode.eu/wp-content/uploads/2023/01/The-Strengthened-Code-of-Practice-on-Disinformation-2022.pdf"><span>European Code of Practice on Disinformation</span></a><span>. Three years and little progress later, YouTube </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://disinfocode.eu/wp-content/uploads/2025/01/2025-01-google-ireland-subscription-form.pdf"><span>has announced</span></a><span> its withdrawal from this agreement.</span></p><p><span>This decision comes just as the Code of Practice becomes a binding code of conduct under the Digital Services Act (DSA), meaning that previously voluntary measures now gain legal significance. Instead of strengthening its collaboration with fact-checkers, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.axios.com/2025/01/16/google-fact-check-eu"><span>Axios</span></a><span> reports that Kent Walker, Google’s President of Global Affairs, informed the European Commission that these actions are considered "simply (not) appropriate or effective” for its services. Fact-checkers are tasked with providing evidence and context, so here are a few examples from Europe of videos where it would be highly appropriate for YouTube users to see a warning with verified information.</span></p><h2><span>Harmful misinformation unchecked in European countries</span></h2><ul class="list-disc"><li><p><strong><span>"</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://youtu.be/JxWIiSe5ubA?si=StbZJyTA6EKmyGDe"><strong><span>Cure cancer with beet juice</span></strong></a><strong><span>"</span></strong><span>: This video, which has been viewed more than 1.5 million times, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/JxWIiSe5ubA"><span>contains</span></a><span> claims encouraging cancer patients to avoid medical treatments and instead rely on a recipe that supposedly “cured more than 50,000 people”. </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/alimentacion/20240126/curcuma-no-cura-cancer/"><span>has explained</span></a><span> that there is no evidence that any combination of foods can have these effects.</span></p></li><li><p><strong><span>"</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=rQEuRH42Brk"><strong><span>Von der Leyen resigns!</span></strong></a><strong><span>"</span></strong><span>: A channel with over 220 million total views falsely </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/rQEuRH42Brk"><span>announces</span></a><span> the resignation of the President of the European Commission. German fact-checkers such as </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://correctiv.org/faktencheck/2024/11/08/youtube-clickbait-hunderttausende-sehen-falschmeldung-ueber-ruecktritt-von-der-leyens/"><span>CORRECTIV</span></a><span> and </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://dpa-factchecking.com/germany/240708-99-668753/"><span>DPA</span></a><span> have highlighted the clickbait tactics used to drive views and monetize through ads.</span></p></li><li><p><strong><span>"</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=RrUGO1Zrx64"><strong><span>China ready to fight alongside Russia</span></strong></a><strong><span>"</span></strong><span>: Alarmist warnings about an alleged war involving China </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/RrUGO1Zrx64"><span>appear</span></a><span> on a channel with more than 140,000 subscribers. The videos use old, out-of-context footage to support their claims, as </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.ellinikahoaxes.gr/2024/04/03/apeilise-i-kina-oti-tha-epemvei-stratiotika-se-periptosi-epithesis-ton-ipa-i-tou-nato-sti-rosia/"><span>explained</span></a><span> by the Greek fact-checker Ellinika Hoaxes.</span></p></li><li><p><strong><span>"</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=cw27YQJMfK0"><strong><span>Public energy company?</span></strong></a><strong><span>"</span></strong><span>: A channel with only 76 subscribers and nearly 400,000 views on </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/cw27YQJMfK0"><span>one video</span></a><span> pretends to be a public company to steal credit card details, according to Polish fact-checker </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Demagog.pl"><span>Demagog.pl</span></a><span>.</span></p></li></ul><p><span>These are just a few examples of videos that often violate the platform’s own rules and are currently available without any warnings about their falsehoods and dangers. Some have been on the platform for seven years, accumulating over a million views, while others are hosted on channels with large subscriber bases that have consistently published disinformation for over a decade.</span></p><p><span>We believe it is more than appropriate for each of these videos (and many others) to be </span><strong><span>accompanied by a warning from independent fact-checkers</span></strong><span>, presenting evidence that could be useful to viewers—ranging from warnings against dangerous medical advice to alerts about scams.</span></p><p><span>However, YouTube is avoiding such simple initiatives that would improve the quality of content on the platform, defying its obligations under the EU Digital Services Act.</span></p><p><span>For more details, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/01/simply_isnt_appropriate_maldita_foundation_youtube.pdf"><span>here is the link to our full report</span></a><span>.</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250122/youtube-factchecking-appropriate-code/</link>
      <pubDate>Wed, 22 Jan 2025 12:06:45 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/01/6790d0ba4ed9byoutube-factcheckers-code-disinformation-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Cuatro ejemplos de por qué el fact-checking sí es "apropiado" en YouTube]]></title>
      <description><![CDATA[<p><span>En 2022, YouTube anunció su compromiso de colaborar con organizaciones europeas de verificación de hechos e integrar su trabajo en la plataforma para beneficiar a sus usuarios. Esta medida fue un pilar clave de su participación en el </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://disinfocode.eu/wp-content/uploads/2023/01/The-Strengthened-Code-of-Practice-on-Disinformation-2022.pdf"><span>Código Europeo de Buenas Prácticas sobre la Desinformación</span></a><span>. Tres años y poco progreso después, YouTube </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://disinfocode.eu/wp-content/uploads/2025/01/2025-01-google-ireland-subscription-form.pdf"><span>ha anunciado</span></a><span> que abandona este acuerdo.</span></p><p><span>Esta decisión se produce justo cuando el Código de Buenas Prácticas se convierte en un código de conducta vinculante bajo la Ley de Servicios Digitales (DSA, por sus siglas en inglés), es decir, medidas hasta ahora voluntarias ganan relevancia legal. En lugar de fortalecer su colaboración con los verificadores, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.axios.com/2025/01/16/google-fact-check-eu"><span>Axios</span></a><span> informa que Kent Walker, presidente de Asuntos Globales de Google, avisó a la Comisión Europea que ya </span><strong><span>no considera que estas acciones sean “apropiadas ni efectivas”</span></strong><span> para sus servicios. Es labor de los verificadores ofrecer evidencia y contexto, así que aquí hay unos cuantos ejemplos en Europa de vídeos donde sería enormemente apropiado que los usuarios de Youtube pudieran ver una advertencia con información verificada.</span></p><h2><span>Desinformación dañina sin control en países europeos</span></h2><ul class="list-disc"><li><p><strong><span>“</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://youtu.be/JxWIiSe5ubA?si=StbZJyTA6EKmyGDe"><strong><span>Curar el cáncer con zumo de remolacha</span></strong></a><strong><span>”</span></strong><span>: más de 1,5 millones de veces se ha reproducido </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/JxWIiSe5ubA"><span>este vídeo</span></a><span> con afirmaciones que incitan a pacientes con cáncer a evitar tratamientos médicos y sustituirlo por una receta que, supuestamente, “ha curado a más de 50.000 personas”. </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://maldita.es/alimentacion/20240126/curcuma-no-cura-cancer/"><span>ha explicado</span></a><span> que no existe evidencia de que ninguna combinación de alimentos tenga estos efectos.</span></p></li><li><p><strong><span>“</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=rQEuRH42Brk"><strong><span>Von Der Leyen renuncia!</span></strong></a><strong><span>”:</span></strong><span> un canal que amasa más de 220 millones de reproducciones entre sus vídeos </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/rQEuRH42Brk"><span>anuncia</span></a><span> falsamente la renuncia de la presidente de la Comisión Europea. Verificadores alemanes como </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://correctiv.org/faktencheck/2024/11/08/youtube-clickbait-hunderttausende-sehen-falschmeldung-ueber-ruecktritt-von-der-leyens/"><span>CORRECTIV</span></a><span> y </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://dpa-factchecking.com/germany/240708-99-668753/"><span>DPA</span></a><span> han señalado sus tácticas de clickbait como forma de ganar visitas y monetizar a través de anuncios.</span></p></li><li><p><strong><span>“</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=RrUGO1Zrx64"><strong><span>China lista para luchar junto a Rusia</span></strong></a><strong><span>”: </span></strong><span>advertencias alarmistas sobre una </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/RrUGO1Zrx64"><span>supuesta guerra con China</span></a><span> en un canal de más de 140.000 suscriptores. Además, emplea imágenes antiguas y fuera de contexto para acompañarlas, según </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.ellinikahoaxes.gr/2024/04/03/apeilise-i-kina-oti-tha-epemvei-stratiotika-se-periptosi-epithesis-ton-ipa-i-tou-nato-sti-rosia/"><span>explicó</span></a><span> el verificador griego Ellinika Hoaxes.</span></p></li><li><p><strong><span>“</span></strong><a target="_blank" rel="noopener noreferrer nofollow" href="https://www.youtube.com/watch?v=cw27YQJMfK0"><strong><span>Empresa pública de energía?</span></strong></a><strong><span>”</span></strong><span>: un canal de 76 seguidores y casi 400.000 en este </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://ghostarchive.org/varchive/cw27YQJMfK0"><span>vídeo</span></a><span> haciéndose pasar por una compañía de servicios públicos para robar datos de tarjetas de crédito, según </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://demagog.org.pl/analizy_i_raporty/reklamy-scamow-przed-filmami-na-youtube-uwaga-na-oszustow/"><span>señaló</span></a><span> el verificador polaco </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Demagog.pl"><span>Demagog.pl</span></a><span>.&nbsp;</span></p></li></ul><p><span>Este es sólo un ejemplo de videos violan en muchas ocasiones las propias normas de la plataforma y están actualmente disponibles sin ninguna advertencia sobre su falsedad y peligrosidad. Algunos han estado en la plataforma durante siete años, acumulando más de un millón de vistas, mientras que otros se alojan en canales con grandes bases de suscriptores que publican desinformación de manera constante desde hace más de una década.</span></p><p><span>Creemos que es más que apropiado que cada uno de estos vídeos (y muchos más) hubieran estado </span><strong><span>acompañados de una advertencia de verificadores independientes</span></strong><span> recogiendo evidencia que podría ser útil para los usuarios al verlos, desde advertencias contra consejos médicos peligrosos a alertas sobre estafas.&nbsp;</span></p><p><span>Sin embargo, YouTube huye de iniciativas así de simples que mejorarían la calidad del contenido de la plataforma, en contra de sus obligaciones bajo la Ley Europea de Servicios Digitales.&nbsp;</span></p><p><span>Para más detalle, </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/uploads/2025/01/simply_isnt_appropriate_maldita_foundation_youtube.pdf"><span>aquí está el enlace al informe completo en inglés</span></a><span>.&nbsp;</span></p>]]></description>
      <link>https://maldita.es/nosotros/20250122/youtube-factchecking-ejemplos-apropiado-codigo/</link>
      <pubDate>Wed, 22 Jan 2025 11:49:24 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/01/6790cd04acb7byoutube-factchecking-codigo-webp.webp</url>
      </image>
    </item>
    <item>
      <title><![CDATA[Más de la mitad de las desinformaciones más relevantes para los latinos durante las elecciones en EEUU no recibió ninguna respuesta por parte de las grandes plataformas digitales]]></title>
      <description><![CDATA[<p><span>La Fundación </span><a target="_blank" rel="noopener noreferrer nofollow" href="http://Maldita.es"><span>Maldita.es</span></a><span> y Factchequeado, con el apoyo de Tech Policy Press, han publicado </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.factchequeado.com/factchequeado/uploads/2025/01/factchequeado_respuesta_plataformas_desinformacion_elecciones_eeuu_2024.pdf.pdf"><span>una investigación que mide la respuesta de Facebook, Instagram, TikTok, X y YouTube</span></a><span> a la desinformación sobre las elecciones presidenciales en EEUU del 5 de noviembre de 2024 que había sido desmentida por nueve organizaciones de fact-checking estadounidenses que trabajan en español.</span></p><p><span>Hemos analizado una muestra de 510 publicaciones en español y en inglés relacionadas con las elecciones y especialmente relevantes para las comunidades latinas. Todas ya habían sido desmentidas públicamente por organizaciones de fact-checking verificadas por la International Fact-Checking Network (IFCN) que trabajan en español y en EEUU.</span></p><p><span>Los resultados principales son los siguientes:</span></p><ul class="list-disc"><li><p><span>En total, </span><strong><span>el 55% de las publicaciones que contenían desinformación no recibió una acción visible por parte de las plataformas</span></strong><span>, una proporción variable entre las distintas plataformas.</span></p></li><li><p><strong><span>YouTube y X son las plataformas que menos han tomado acciones</span></strong><span> visibles contra la desinformación (el 81% del contenido y el 75%, respectivamente, no recibieron ningún tipo de acción).</span></p></li><li><p><strong><span>TikTok</span></strong><span> muestra un porcentaje de inacción algo menor (68%), pero </span><strong><span>es la plataforma que utilizó con más frecuencia la eliminación de contenido</span></strong><span> (78% de sus acciones), una práctica desaconsejada por los expertos en fact-checking.</span></p></li><li><p><span>El porcentaje de acciones sobre contenido desinformador en las plataformas de Meta muestra diferencias significativas con un </span><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.maldita.es/maldita/2024/06/platform_response_to_disinformation_during_the_eu_election.pdf"><span>estudio similar realizado en las elecciones del Parlamento Europeo</span></a><span>. </span><strong><span>En Europa sólo el 11% del contenido desmentido en Facebook no recibió acción visible, en comparación con el 25% en EEUU</span></strong><span>. En Instagram, la cifra fue del 29%, comparado con el 40% en las elecciones americanas.</span></p></li><li><p><span>De las 20 publicaciones más virales que no recibieron ninguna acción por parte de las plataformas, 19 de ellas estaban en X y acumularon más de 6,5 millones de visualizaciones cada uno.</span></p></li><li><p><span>Los contenidos de desinformación en español y en inglés recibieron un porcentaje de respuesta similar. Las mayores diferencias aparecen en Facebook, donde el contenido de desinformación en español recibió una mayor respuesta (79,7% vs. 45,8%), y en X, con mayor acción visible en publicaciones en inglés (28,3% vs. 15,2%).</span></p></li><li><p><span>La desinformación sobre candidatos fue la más destacada entre los posts estrictamente relacionados con “Elecciones”, el tema más analizado, mientras que “Migración” fue el segundo tema más popular, representando casi el 20% de la desinformación de la muestra.</span></p></li></ul><p><a target="_blank" rel="noopener noreferrer nofollow" href="https://files.factchequeado.com/factchequeado/uploads/2025/01/factchequeado_respuesta_plataformas_desinformacion_elecciones_eeuu_2024.pdf.pdf"><span>Puedes acceder al informe completo en español aquí</span></a><span>.</span></p><p><br></p>]]></description>
      <link>https://maldita.es/investigaciones/20250120/elecciones-estadounidenses-latinos-desinformacion-plataformas/</link>
      <pubDate>Mon, 20 Jan 2025 12:11:14 +0100</pubDate>
      <image>
        <url>https://files.maldita.es/maldita/uploads/images/2025/01/678e2ef0af2d6elecciones-estados-unidos-latinos-desinformacion-webp.webp</url>
      </image>
    </item>
  </channel>
</rss>
