A principios de abril, Twitter afirmó que iba a ampliar los supuestos en los que publicar un contenido sobre el coronavirus podría violar sus normas y que, por tanto, sería retirado de la red social. Desde que se declaró la pandemia, esta y otras redes sociales como Facebook y YouTube han tenido que modificar sus métodos de moderación de contenido para detectar las publicaciones sobre COVID-19 que podrían perjudicar a los usuarios por inducir a malas prácticas para afrontar la enfermedad (por ejemplo, beber lejía) o a hacerse daño a sí mismos.
Debido a las circunstancias de confinamiento, hay menos personas dedicadas a vigilar lo que se difunde por estas redes, las compañías recurren más a sistemas automatizados para hacerlo y, en consecuencia, hay denuncias sobre otros contenidos ajenos al virus que se han desatendido. Un mes después de la declaración de la pandemia, ¿cómo están enfrentándose las redes a la moderación de contenidos?
Los nuevos supuestos por los que Twitter puede retirar un contenido sobre coronavirus
Entre las primeras medidas que tomó Twitter para enfrentarse a la oleada de desinformación sobre el coronavirus, primaban los supuestos bajo los cuales podían obligar a los usuarios a retirar un contenido y el montar sistemas seguros para que sus equipos pudiesen realizar su trabajo desde casa. Eso implica, como ellos mismos dicen, que tienen que apoyarse más en la automatización para evaluar los contenidos.
El 22 de abril, Twitter anunció que ampliaba los supuestos en los que podían retirar una publicación de la plataforma: si se publica contenido que niegue las recomendaciones de las autoridades sanitarias o los consejos de expertos, que se hagan pasar por estos o que se anime a usar tratamientos nocivos para la salud que se relacionan con la COVID-19:
Teóricamente, si alguien instara en una publicación a seguir las hipótesis del presidente de Estados Unidos, Donald Trump, sobre cómo tratar la COVID-19 y animase a los usuarios a “inyectarse desinfectante” de alguna manera, esta tendría que ser retirada. Sin embargo, si lo hace directamente Trump, también debería retirarse este contenido, pero Twitter avisa de que a líderes políticos se les podría aplicar la política de “interés público”: es decir, que aunque un político lance una mentira que pueda ser dañina para los usuarios, podría seguir publicado por su posición, y como mucho se limitaría su visibilidad en la red.
A la hora de implantar estas medidas, se enfrenta al mismo reto que otras digital media, que son las plataformas en las que se permite publicar contenido que luego es distribuido en Internet (Facebook también lo es, por ejemplo). Hay menos personal para hacerlo y hay que confiar más en los programas automatizados que analizan las publicaciones. Estos análisis basados en la automatización no se usan para “suspender permanentemente” cuentas, por lo que si desde la red social detectan actividad extraña que va contra sus normas o que ha sido denunciada, debe pasar por el ojo del equipo de personas. Y esto implica que no podían llegar a todos los reportes o actuaciones de cuentas falsas:
YouTube prima el acceso a fuentes oficiales, pero no da información sobre los límites a la viralización de contenidos falsos
Nos habéis preguntado por las medidas que está tomando YouTube en concreto para frenar la viralización de los vídeos que muestran contenidos peligrosos para la salud pública. Su respuesta ante la pandemia ha sido similar a la de otras tecnológicas y la impuesta por Google: hacer lo posible para que las personas que entran en la red de vídeos vean antes los contenidos de fuentes oficiales y las autoridades sanitarias, como la Organización Mundial de la Salud (OMS). Sin embargo, no aporta información oficial sobre los límites impuestos a la viralización.
El hecho de que se reduzca la cantidad de personas que pueda haber ahora dedicada a vigilar los contenidos y atender a los reportes se debe en gran parte al hecho de que los sistemas informáticos y los equipos técnicos no son los mismos en las oficinas que en las casas, por lo que no pueden llevar a cabo el mismo trabajo. Esto desemboca en que se pueden producir retiradas de contenidos, pero no siempre tienen por qué ser precisas.
Consultados por Maldita Tecnología, desde YouTube no han dado cifras concretas sobre la reducción del personal debido a la situación de confinamiento, sino que se remiten a una de las publicaciones de su blog, en el que afirman que los equipos que revisan los vídeos están formados por "miles de personas", tanto de YouTube como de terceras compañías.
“YouTube ha revisado y eliminado manualmente cientos de vídeos relacionados con información peligrosa o engañosa sobre el coronavirus desde principios de febrero”, aseguran desde la compañía a Maldita Tecnología. En una de sus publicaciones, afirman que pese a la “notable inversión” hecha en sistemas automatizados, estos no son tan “precisos o granulares” como las revisiones de personas, y por eso puede haber un aumento de “contenido clasificado para su retirada”, a pesar de que no viole ninguna norma. Esto se puede aplicar a la inversa: que el programa no detecte contenido que pudiese ser peligroso para la salud pública.
Algunas investigaciones como esta de Tech Transparency Project denuncian que pese a las estrategias de la red social para acabar con el contenido dañino sobre COVID-19, no está tan controlado y hay vídeos que comienzan con anuncios con bulos. Por ejemplo, sobre remedios caseros naturales que prometen “curar” el virus y de los cuales te hablamos aquí (recuerda que no funcionan y pueden suponer un riesgo para la salud). En resumen, la falta de transparencia por parte de YouTube a la hora de explicar qué retira y qué no pude suponer que se estén retirando contenidos que no sean dañinos y que se estén manteniendo contenidos que sí lo sean.
Antes de que se declarase la pandemia, YouTube prohibió la monetización de los vídeos que trataran sobre COVID-19 o en los que se mencionase el coronavirus varias veces. El 11 de marzo emitió un comunicado en el que levantaba este baneo justificando que, en vista de que el virus iba a ser un tema principal durante un tiempo, quería asegurarse de que “las organizaciones de noticias y los creadores pudieran seguir produciendo vídeos de calidad”. Y volvió a permitir la colocación de anuncios.
Contenidos relacionados con la COVID-19 que pueden obviarse debido a la reducción de personal en Facebook o Instagram
Un mes antes de que se declarara la pandemia, el fundador y director ejecutivo de Facebook, Mark Zuckerberg, aseguró que contaban con un equipo de 35.000 personas dedicadas a la moderación de contenidos en la plataforma. Desde que se ajustaron las medidas a la crisis del coronavirus, la compañía no ha confirmado cuanta gente tienen trabajando en asegurarse de que los contenidosno violen las normas del servicio o atendiendo a las denuncias de la gente. Aseguran a Maldita Tecnología que no hay cifras desglosadas de manera oficial de las personas detrás de la moderación.
Zuckerberg escribió este mes en un post de Facebook que “un pequeño porcentaje de los empleados fundamentales que no pueden trabajar de forma remota, como los moderadores de contenido que trabajan en tácticas contra el terrorismo, suicidio o prevención de autolesiones” podrían volver antes que el resto a la oficina para continuar con su trabajo, pero que aun así no esperan que esto pase en las próximas semanas.
Es decir, que por el momento también hay más confianza en que los sistemas de detección de contenidos basados en inteligencia artificial hagan el trabajo que en recuperar al personal encargado. Y eso lleva a que contenido que no tiene nada que ver con el coronavirus se suspenda por supuestamente violar las normas. O por el contrario, que se reporte un contenido difamatorio pero no pueda eliminarse, también en Instagram, otra red de la que es dueño:
En su última actualización sobre la información de moderación de contenidos, la compañía afirma que los reportes de los usuarios son “prioritarios” y que han puesto a revisar contenidos a algunos empleados que “trabajan a jornada completa”: aquel que tiene que ver con “seguridad infantil” y “suicidio o autolesiones”.
Por el momento, son las propias redes sociales las que admiten que no pueden con el torrente de contenidos que se publican y que por eso tiran más de sistemas automatizados. El proceso para denunciar contenidos no ha cambiado en ninguna de ellas, pero los plazos y la precisión están sujetos a la reducción del personal (el problema de la desinformación y los contenidos nocivos en las plataformas es anterior al coronavirus).
La última medida que ha implantado Facebook en este sentido es avisar por notificaciones a los usuarios si han hecho click, compartido o interactuado con una publicación sobre el coronavirus que podría ser peligrosa para la salud o hacerles daño físico. En casos así, Facebook borra ese contenido porque según ellos incumple sus Estándares Comunitarios y remite a los usuarios a la información de autoridades sanitarias, como la OMS o ministerios de Sanidad.
Además, Facebook ha potenciado su colaboración con verificadores externos para evitar que las personas interactúen y compartan bulos. Maldita.es pertenece al programa de verificación por parte de terceros desde 2019 junto a equipos de más de una treintena de países, que se encargan de marcar contenidos falsos con los desmentidos sobre ellos según una estricta metodología para que los usuarios accedan a la información correcta.
Desde Maldita.es te recomendamos los siguientes pasos si te encuentras con un contenido del que desconfías o que te suena un poco raro: