MENÚ
MALDITA TECNOLOGÍA

YouTube censura vídeos paródicos sobre los negacionistas de la COVID-19 mientras se le escapan vídeos sobre la pandemia que sí desinforman

Publicado
Comparte
Categorías
Recursos utilizados
Material producción propia

YouTube evitó durante un día que un vídeo paródico en el que se critica la actitud de los negacionistas apareciese en la plataforma. El conocido dúo Pantomima Full presentó un vídeo en el que imita los argumentos sin evidencias contra el uso de las mascarillas, pero este no duró mucho subido a la plataforma, que lo retiró porque consideró que su contenido cuestionaba "explícitamente la eficacia de las directrices recomendadas por la OMS". Mientras, otros vídeos desinformadores siguen circulando sin que la plataforma los detecte. La compañía reaccionó por la noche volviendo a colgar el vídeo y atribuyendo el error a sus algoritmos.*

No tuvo en cuenta que el contenido es humorístico, aunque otros vídeos que sí intentan desincentivar el uso de la mascarilla o que difunden teorías de la conspiración de forma intencional, como que buscan implantarnos microchips de control a través de las vacunas, no se retiran e incluso se distribuyen por otras plataformas como Facebook.

De la retirada de contenidos de YouTube se encarga en parte un programa automático formado por diferentes algoritmos. Escanean el contenido de los vídeos para buscar palabras clave relacionadas con la COVID-19 y, teóricamente, eliminan aquel que contraviene las indicaciones de las autoridades sanitarias. Eso en teoría, porque la realidad es que en la práctica no son tan efectivos. En Maldita Tecnología ya os hemos hablado de los problemas de la automatización.

Los fallos que tienen a la hora de distinguir un contenido divulgativo o humorístico de uno que sí que perjudica la salud de las personas es lo que causa que un vídeo de "pantomima" sea retirado.

YouTube retiró el vídeo porque consideró que infringía las normas, según Pantomima Full

Alberto Casado y Rober Bodegas, componentes del dúo Pantomima Full son conocidos en España por criticar distintos colectivos en vídeos paródicos y hacer de ellos una pantomima. Su canal tiene 276.000 suscriptores. Bodegas explica a Maldita Tecnología que el último vídeo que subieron, una parodia sobre los negacionistas de la pandemia, fue retirado de la plataforma por supuestamente ir en contra de las recomendaciones de la Organización Mundial de la Salud.

Bodegas nos cuenta que suben normalmente los vídeos con un día o unas horas de antelación para que YouTube pueda hacer los procesos de revisión pertinentes: comprobar que el vídeo no incumpla normas, que puede monetizarse, etc. En este caso, la subida a la plataforma estaba programada para las 9:30 horas del viernes, pero 20 minutos más tarde dice que recibió una notificación de YouTube avisando de que estaban infringiendo sus normas y que el vídeo fue retirado.

Por lo que cuenta, esta notificación fue un mero aviso: en teoría, si una cuenta es reincidente pueden incluso eliminarla de la red social, pero Bodegas explica que no habían recibido avisos antes.

Apeló a YouTube la retirada del vídeo, algo que permite la plataforma en caso de que los creadores crean que se ha eliminado un contenido por error, pero aun así la compañía sostuvo que el vídeo "infringe las Normas de la Comunidad" y que mantenían su decisión original.

Horas después, YouTube permitió que el vídeo apareciese en el canal*

La primera respuesta de la compañía a la apelación de Bodegas fue que mantenían su decisión original de retirar el vídeo, a pesar que él denuncia que apenas pasaron unos minutos desde que mandaron la apelación. Horas después, YouTube rectificó y permitió que el vídeo apareciese en su canal, donde se puede ver ahora.

"Entendemos la frustración que Pantomima Full puede sentir en esta situación. Debido al COVID 19, redujimos personal en determinados lugares y como resultado, hemos estado confiando mucho en las máquinas para identificar violaciones de políticas de contenido. Sabemos que esto supone el incremento de vídeos eliminados, incluso de vídeos que no violan nuestras políticas, y es por esto por lo que los creadores pueden apelar la decisión si creen que su contenido ha sido eliminado por error. Cuando revisamos los vídeos apelados, restablecemos aquellos que no violan nuestras políticas", es la respuesta oficial de un portavoz de la compañía que ha sido remitida a Maldita Tecnología.

La compañía asegura que las apelaciones de los creadores se revisan (teóricamente por personas) por si acaso hay que reestablecer el vídeo pero, con esta pieza, que claramente se trata de una parodia, la respuesta también fue negativa en un primer lugar.

Los algoritmos no son tan eficaces a la hora de distinguir un tipo de contenido de otro

Durante la pandemia, os contamos que las redes sociales habían delegado en la automatización la retirada de contenidos: como las empresas mandaron a teletrabajar a su plantilla, los moderadores de contenido no podían realizar adecuadamente su trabajo. Por tanto, confiaron en que un programa informático se encargara de eliminar y moderar el contenido que incumpliese sus reglas.

Sin embargo, los algoritmos que hacen funcionar ese programa (y en general los dedicados a la moderación de contenidos) no son tan eficaces como una persona, ya que no son capaces en muchas ocasiones de discernir lo que es desinformación de lo que no, o que un contenido tiene una intención u otra: su análisis es más esquemático.

Por ejemplo, en el vídeo aparecen frases literales como "el virus no existe"; "vida sí, 5G no"; y "la supuesta vacuna no me la voy a poner, a mi no me van a controlar con un microchip": todas afirmaciones falsas que un algoritmo puede señalar para retirarlas, a pesar de que el contexto sea el de una parodia.

YouTube y el resto de redes sociales lo saben y por eso la compañía de Alphabet (la matriz de Google) explica que es consciente de que al delegar en exceso en sistemas automatizados para retirar contenidos, "hay muchos vídeos que no pasan por una revisión humana, por lo que vídeos que no violan las políticas se retiran igual".

Ahora, YouTube ha recuperado a la plantilla que había dejado inactiva durante la pandemia, lo que significa que vuelve a haber moderadores encargándose de discriminar el contenido que puede circular por la plataforma y revisando aquel que marcan los algoritmos.

Aun así, un vídeo paródico como el de "Pantomima Full" se retiró al segundo de la plataforma, mientras que circulan vídeos que sí tratan seriamente teorías de la conspiración o exponen argumentos falsos sobre las mascarillas y las vacunas. Nuestras compañeras de Maldita Ciencia han llegado a desmentir alrededor de una quincena de vídeos con esta temática, aunque no todos viniesen de YouTube.

YouTube decide cuáles son las reglas a la hora de subir un contenido a su plataforma

El problema que tiene YouTube con la automatización no es aislado, pasa con todas las plataformas. De ahí que, por ejemplo, Facebook no delegue del todo en la actuación de los algoritmos para marcar o retirar un contenido que desinforma sino que cuenta con un programa de fact-checking realizado por terceros, del que Maldita.es es parte.

Pero esto es así porque Facebook toma ciertas decisiones y YouTube otras. Este tipo de cosas también ocurren porque las redes sociales son las que deciden qué contenido puede entrar en sus plataformas y cuál tiene que salir de ellas. Son los principios de autorregulación que os hemos explicado ya en Maldita Tecnología.

Por tanto, es YouTube quien decide que un contenido concreto tiene que eliminarse de la plataforma en base a las normas que la propia compañía ha fijado, y eso está causando verdaderos quebraderos de cabeza a los reguladores europeos: la desinformación puede afectar al desarollo de unas elecciones pero también a la salud de las personas, como ha demostrado la pandemia de SARS-CoV-2, por lo que se busca la forma de regular su penalización.

Por ahora, lo único que incluye una directiva ya aprobada a nivel europeo, la de propiedad intelectual, es el uso de las herramientas de moderación de contenido antes de que este se suba para evitar que haya infracciones relacionadas con el derecho de autor. El problema sigue siendo que esta revisión la haga un programa automatizado por su incapacidad para distinguir contextos.

Primera fecha de publicación de este artículo: 02/10/2020.

* Hemos actualizado este artículo el 3 de octubre para incluir la respuesta de YouTube.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.