This article is also available in English.
Un análisis de la Fundación Maldita.es sobre las más de 1.175.000 notas de la comunidad propuestas por los usuarios de X a lo largo de 2024 revela que 1 de cada 27 contenía un enlace a un artículo de un fact-checker acreditado por la European Fact-Checking Standards Network (EFCSN) o la International Fact-Checking Network (IFCN). Esto sitúa a los verificadores independientes como la tercera fuente más citada en las notas de la comunidad, sólo detrás de la propia X y Wikipedia.
Sin embargo, como ya te contamos en Maldita.es, el problema no es tanto la falta de notas bien fundamentadas, sino la política de X para mostrarlas. La plataforma sólo hace visibles aquellas que logran consenso entre usuarios de “distintas ideologías políticas”, dándole más importancia a este factor que a la veracidad de la nota. Según el estudio de la Fundación Maldita.es durante las últimas elecciones europeas, sólo el 15% de los tuits con desinformación electoral tenían una nota. Además, de las 20 publicaciones falsas más virales que no recibieron ninguna acción por parte de las grandes plataformas digitales, 18 estaban en X y acumulaban más de 1,5 millones de visualizaciones cada una.
A pesar de esto, las notas que citan a organizaciones de fact-checking tienen más probabilidades de ser vistas. Mientras que sólo el 8,3% de todas las notas propuestas en X se vuelven visibles, el porcentaje sube al 12% cuando incluyen un enlace a una organización de verificación y al 15,2% si proviene de verificadores europeos.
Estas notas además aparecen más rápido: se proponen en 4 horas y 25 minutos tras la publicación del tuit original (23 minutos antes que lo general) y se hacen visibles en 5 horas y 40 minutos tras ser calificadas como útiles (24 minutos antes que la media). En total, las notas con evidencia de fact-checkers se hacen visibles 90 minutos antes que las demás.
Puedes acceder al informe en inglés con la evidencia completa a través de este enlace.
Cómo podrían ser más efectivas las notas de la comunidad
A pesar de estos datos sobre la importancia del fact-checking en las notas de la comunidad, estos también indican que el modelo de X priva a los usuarios de mucha información valiosa al equiparar “consenso” con “verdad”, dejando sin mostrar el 85% de las notas con evidencia de fact-checkers. Ahora que plataformas como Meta y YouTube planean implementar programas similares, es crucial que no repitan los errores de X y colaboren con organizaciones de fact-checking para:
Favorecer las notas con fuentes de calidad y conocimiento experto más que el “consenso” entre usuarios que acostumbran estar en desacuerdo
Agilizar la aparición de notas en casos de las desinformaciones más virales y peligrosas
Impedir que grupos organizados o usuarios con varias cuentas manipulen el sistema
Tomar acción contra usuarios que mienten y reciben notas repetidamente, como por ejemplo retirar el check azul de verificación o la capacidad de monetizar
Garantizar la independencia del proceso y evitar la eliminación de notas por presiones externas