menu MENÚ
NOSOTROS

Cómo era Facebook antes del programa de verificación independiente (y por qué no queremos volver ahí)

Publicado
Claves
  • Meta ha anunciado el fin del programa que permite a los verificadores etiquetar contenidos falsos o engañosos
  • Este sistema se creó el 2016, después de varios escándalos relacionados con campañas de desinformación en Facebook
  • El programa funciona en más de 100 países y ha sido efectivo en reducir las diseminación de contenidos falsos. Ahora, será reemplazado por un sistema de Notas de la comunidad “al estilo del de X”
Comparte
Etiquetas

Una versión en inglés de este artículo se puede consultar en este enlace.

El número 2 de Meta, Joel Kaplan, casi ha confirmado el fin del programa de verificación independiente de Meta a nivel mundial, que afecta a Facebook, Instagram y Threads. El anuncio llega después de que el CEO Mark Zuckerberg explicara su cierre en EEUU el pasado 7 de enero diciendo que “los verificadores simplemente han tenido demasiado sesgo político y han destruido más confianza de la que crearon, especialmente en EEUU”, algo que no es cierto.

Desde su inicio en 2016, la propia Meta ha explicado una y otra vez por qué el programa de verificación funciona, pero antes Facebook había funcionado durante 12 años sin colaborar con fact-checkers. Si cambió de rumbo en 2016 fue porque se hicieron evidentes los enormes problemas que causaba la desinformación en la plataforma y sus consecuencias, como la manipulación para influir en los resultados de las elecciones presidenciales de EEUU en 2016 y otros escándalos.

Lo que obligó a Facebook a crear el programa de verificación independiente

El 15 de diciembre de 2016 Facebook anunció una serie de medidas contra los bulos y la manipulación, entre ellas la colaboración con verificadores externos. A pesar de que ya se habían denunciado antes los problemas que tenía la plataforma con la desinformación, los perfiles falsos y la recomendación de contenidos engañosos por parte del algoritmo, fueron las elecciones presidenciales en EEUU de 2016 las que cimentaron la preocupación por el efecto que tienen las redes sociales (y la desinformación en ellas) en la democracia. 

Diversos estudios sostienen que redirigió a los votantes a webs desinformadoras y que, en los tres meses anteriores a los comicios, los artículos falsos generaron más engagement en la red social que los artículos de The New York Times, The Washington Post, Huffington Post, NBC News y otros. Otra investigación reveló que Facebook y Twitter fueron la fuente primaria de tráfico a artículos falsos, con el primero siendo responsable de un 99% de este. La interferencia rusa en los comicios también aprovechó la red social: los anuncios comprados por agentes rusos llegaron a 10 millones de usuarios. 

Unos problemas que terminó de confirmar, dos años después, el escándalo de Facebook- Cambridge Analytica. Una compañía británica contratada por el equipo de Trump usó los datos de usuarios de Facebook para crear anuncios políticos durante las elecciones presidenciales y mostrarlos a usuarios particularmente influenciables. No sólo sucedió en EEUU: la empresa también fue acusada de interferir en el referéndum del Brexit en 2016 y usar los datos de Facebook para mostrarles propaganda, en muchos casos con desinformaciones.

Facebook y los ‘fact-checkers’

A la luz de todo esto, el 17 de noviembre de 2016 la red internacional de verificadores independientes (IFCN) envió una carta a Zuckerberg que le proponía una colaboración con los verificadores: “Creemos que Facebook debe comenzar una conversación abierta sobre los principios que podrían sustentar un ecosistema de noticias más preciso en su ‘News Feed'. La comunidad global de verificación de datos está deseosa de participar en este debate”. 

Para entonces la desinformación que circulaba en Facebook durante esos años era ya un problema global que repercutía en distintos lugares del planeta. La carta del IFCN advertía de que: “publicaciones populares que contienen afirmaciones de salud falsas han servido para vender curas médicas falsas y socavar campañas de salud pública en todo el mundo. Se han utilizado afirmaciones falsas publicadas en línea para incitar a la violencia en países como Nepal y Nigeria. Acusaciones falsas en Facebook llevaron a que una mujer fuera asesinada a golpes en Brasil”. 

Casi un mes después, Facebook anunció una colaboración con verificadores reconocidos por IFCN como Snopes, PolitiFact, The Associated Press, FactCheck.org y ABC News, quienes se encargarían de revisar los contenidos denunciados por los usuarios como falsos. De esta forma, nació el programa de verificación independiente que conocemos hoy. 

Como te hemos explicado en Maldita.es, los verificadores nunca han podido borrar contenidos de Facebook y creemos que borrar la desinformación de las redes sociales es, en la inmensa mayoría de los casos, un error. En lugar de eso, lo que proponen los verificadores como Maldita es que las plataformas usen etiquetas o advertencias como “este contenido ha sido calificado como falso por un verificador independiente” con un enlace a la evidencia de por qué es así, para que los usuarios puedan tener más información y tomar sus propias decisiones. Creemos que la libertad de expresión también es poder mentir; y admitir que tu mentira sea rebatida. En definitiva: los verificadores aportamos información, no quitamos

El programa de verificación independiente sirve para proteger a las personas y a la democracia

Es en ese contexto de 2016 en el que surge el programa de verificación independiente de Meta que entrega información a los usuarios sobre la veracidad de las publicaciones que se encuentran. Hoy opera en más de 100 países, con verificadores analizando y etiquetando según su grado de falsedad contenidos potencialmente falsos o engañosos en Facebook, Instagram y Threads. 

Los resultados del programa son positivos, según la propia Meta. “Entre julio y diciembre de 2023, por ejemplo, más de 68 millones de contenidos vistos en la UE en Facebook e Instagram tenían etiquetas de verificación de datos. Cuando se coloca una etiqueta de hechos verificados en una publicación, el 95% de las personas no hacen clic para verlo”, destacó Meta durante las elecciones al Parlamento Europeo de 2024.

A pesar de ello, Zuckerberg insiste en que los verificadores han “destruido la confianza”. “Después de que Trump fuera elegido por primera vez en 2016, los medios tradicionales escribieron sin parar sobre cómo la desinformación era una amenaza para la democracia. Intentamos de buena fe abordar esas preocupaciones sin convertirnos en árbitros de la verdad”, afirmó el CEO en su anuncio. 

Pero no fueron sólo los medios quienes encendieron las alarmas. También fueron los investigadores académicos y las autoridades que investigaron a fondo la conexión entre Facebook y los resultados electorales del 2016. De hecho, la Comisión Federal de Comercio de EEUU sancionó a Facebook con una multa de 5.000 millones de dólares por su participación en el escándalo de Cambridge Analytica. La amenaza a la democracia que supone la desinformación no es solo una idea de los periodistas o de los medios, es una realidad. 

“Con varios países europeos celebrando elecciones en 2025, las plataformas que se retractan de la lucha contra la información errónea y la desinformación permiten e incluso invitan a la injerencia en sus procesos electorales, especialmente por parte de actores extranjeros”, respondió la European Fact-Checking Standards Network (EFCSN) a las declaraciones de Zuckerberg. 

Considerando cómo era Facebook antes del programa de verificación independiente, el título del vídeo publicado por el CEO “Es tiempo de volver a nuestras raíces sobre la libertad de expresión” toma otro sentido. Esas raíces, por lo menos las del 2016, permitieron que la red social se utilizará para decidir unas elecciones (sino varias). El desarrollo del sistema de Notas de la comunidad y la colaboración con verificadores que reemplazará el programa será clave para determinar si volvemos al 2016, o no. 

Los verificadores y las ‘Notas de la comunidad’ 

En Maldita.es creemos que el trabajo de los verificadores y las Notas de la comunidad no sólo no se excluyen, sino que se deben complementar. Es cierto que el sistema tal cual existe en X no es perfecto: por ejemplo más del 90% de los tuits con bulos sobre la DANA desmentidos por Maldita no tenía Notas de la comunidad, pero muchas veces eso no significa que los usuarios no estén proponiendo esas notas, sólo indica que el algoritmo de X no las está mostrando. ¿Por qué?

Las notas propuestas son votadas como útiles o no por los usuarios que participan en Community Notes, pero el algoritmo sólo las hace visibles cuando usuarios que suelen estar en desacuerdo al calificar notas coinciden en que esa nota en concreto es útil. Esencialmente, evalúa el consenso de personas con “diferentes ideologías políticas. En los temas que generan más polarización, ese énfasis en el consenso prácticamente asegura que muchas Notas de la comunidad con información fiable nunca se muestran.

Con todo, en Maldita.es creemos que las Notas de la comunidad pueden ser un buen instrumento contra la desinformación. El año pasado se propusieron en X más de 850 notas que citaban artículos de Maldita.es, más que ningún otro verificador de la Unión Europea. Lo que hace falta es que las plataformas que las usen garanticen algunas cosas:

  • Que se favorezcan las notas con fuentes de calidad y conocimiento experto más que el “consenso” entre usuarios que acostumbran estar en desacuerdo.

  • Que las notas aparezcan más rápido en las desinformaciones más peligrosas y virales.

  • Que se impida a grupos organizados o usuarios con varias cuentas manipular el sistema.

  • Que mentir y recibir notas repetidamente tenga alguna consecuencia para el usuario, como por ejemplo retirarle el check azul de verificación o la capacidad de monetizar.

  • Que existan garantías de que las plataformas que las habiliten no pueda interferir en el proceso y retirar notas por presiones ajenas a los usuarios.

En este artículo te contamos más sobre nuestra postura sobre las Notas de la comunidad.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.