MENÚ
MALDITA TECNOLOGÍA

Filtros automáticos de contenido: qué son y cómo afectan a la información que subimos a Internet

Publicado
Comparte
Categorías
Recursos utilizados
Expertos
Legislación

En las últimas semanas se ha hablado mucho de una directiva europea que estamos pendientes de transponer en España sobre copyright. Esta se aprobó definitivamente en 2019 e incluye un punto que deja muchos titulares: el uso de filtros automáticos de contenido para redes sociales o cualquier otra plataforma o página web. Estos filtros tienen más relación con la tecnología de lo que pensamos, por lo que vamos a tratar de explicar en qué consisten y en qué nos pueden afectar a nosotros como usuarios.

Lo primero es explicar qué son y de dónde proceden: cuando hablamos de estos filtros nos referimos a  sistemas informáticos que puedan detectar de forma automática y bloquear un contenido que viole los derechos de autor. Son herramientas que algunas plataformas, como Facebook y YouTube, ya tienen disponibles a día de hoy para analizar las publicaciones en busca de este tipo este tipo de infracción.

Piensa en la cantidad de cosas que subes a internet sin plantearte demasiado su origen: ¿si subo un videoclip de música estoy infringiendo los derechos de autor del cantante? ¿Y si uso en mis redes sociales un texto que no he creado yo? El ecosistema digital que se ha creado con el uso intensivo de redes sociales, la aparición de los ‘youtubers’ o los ‘streamers’ en plataformas como YouTube o Twitch y el libre acceso a páginas web de cualquier tipo ha cambiado de forma radical la manera en la que movemos un contenido de un lado para el otro

Eso es lo que se busca regular con la Directiva 2019/790 sobre derechos de autor, una renovación de la legislación existente en materia de copyright para adaptarla al mundo digital. En ella, se introduce una medida que convierte a “los proveedores de contenidos” en responsables de controlar que ninguno de ellos viole su copyright. Un ejemplo perfecto de estos proveedores son las redes sociales que usamos.

Las plataformas vigilarán que no se suba contenido que infrinja los derechos de autor

“¿Cómo podríamos determinar que los contenidos que suben los usuarios no coinciden con la información que han dado los titulares de derechos? Los prestadores tendrán que revisarlos para poder asegurarse que luego no puedan los consideren responsables, por lo que el usuario es culpable hasta que se demuestre lo contrario (un uso lícito, mediante licencias o mediante excepciones o límites)”, expone a Maldita.es Marelisa Blanco, abogada especializada en propiedad intelectual en Akme y Nolegaltech.

Blanco especifica que el concepto de los filtros automáticos como tal no aparece en el texto final de la directiva, sino que se deja a cada plataforma la opción de usar la que más le convenga (por ejemplo, incluso incluir marcas de agua para determinado contenido). 

Sin embargo, se extrae que grandes prestadores, como puede ser YouTube, terminarán monitorizando de forma automática usando varios algoritmos el contenido que subimos para determinar si infringe los derechos de autor y, si es el caso, no permitirá su publicación. Básicamente, porque son sistemas que ya tienen instalados:  “Estos hacen un escaneo a través de sus bots o te lo revisan antes de que lo compartas”, añade Blanco.

Con la directiva en marcha, estas medidas se endurecen porque las plataformas deben probar que están haciendo todo lo que está en su mano para evitar que se suba contenido que viole los derechos de autor. Si endurecer los filtros es una solución, mucho contenido se quedará en las compuertas, sin llegar a poder compartirse. Como usuarios, si queremos reclamar esa decisión nos encontramos con obstáculos que a veces no podemos salvar, por ejemplo, el de reclamar a las plataformas que un contenido es lícito.

“La puesta en práctica mostrará las debilidades de estos puntos, primero, porque los métodos actuales tienen muchos fallos, los sistemas de reclamación están altamente automatizados por lo que te encuentras con callejones sin salida (reclamar a Instagram o Facebook es un muy complicado, por ejemplo) o las personas que estarán detrás de los expedientes puede que no tengan suficientes conocimientos sobre propiedad intelectual", señala Blanco.

Las grandes empresas delegarán la tarea en algoritmos automatizados

Pudimos observar un ejemplo relacionado con esto al inicio de la pandemia de COVID-19, cuando las redes sociales comenzaron a delegar en la automatización la retirada de contenidos que violase sus normas y muchas publicaciones que no llegaban a hacerlo fueron bloqueadas o directamente eliminadas por las plataformas. 

Virginia Díez, responsable de políticas públicas de Wikimedia España, recalca que, “paradójicamente, son esas grandes compañías [Facebook, Google, Twitter, etc.] las únicas que van a poder implementar estas medidas tecnológicas por la cantidad de recursos de los que disponen y, posiblemente, ofrecerlas como servicio a plataformas más pequeñas”. 

Crítica que, en vez de distribuir el poder de control que supondrá esta medida, “serán las grandes plataformas quienes decidan en última instancia y a través de sus algoritmos qué contenidos se consideran o no legítimos en Internet”. Las plataformas de menor tamaño y menor número de usuarios no tienen la misma obligación que un gigante como Facebook, por ejemplo, así que pueden terminar por recurrir a ellas para usar sus recursos.

Pone el ejemplo de la Wikipedia, la enciclopedia digital más extensa que existe y que, además, se edita colaborativamente. “A nivel general, las herramientas de filtrado automático son muy preocupantes. Tenemos muchas dudas sobre el desarrollo y la gobernanza de esa tecnología y preocupa que contenidos legítimos puedan eliminarse de la red, dando lugar a limitaciones a la libertad de expresión”, recalca Díez.

¿Qué fallos presentan a día de hoy estos sistemas?

Las redes sociales, por ejemplo, utilizan algoritmos basados en inteligencia artificial que escanean las publicaciones que subimos: los vídeos, los audios, las imágenes, los textos… Todo. Si consideran que alguna de ellas infringe sus normas (las normas que impone la propia red social, ojo), pueden bloquearlo o eliminarlo. El problema es que este tipo de sistemas no están del todo afinados a día de hoy y no son capaces de distinguir como lo haría una persona. 

Hace algunos meses os contamos cómo YouTube había bloqueado un vídeo paródico del conocido dúo Pantomima Full sobre los negacionistas del coronavirus. Los algoritmos que utiliza para escanear los vídeos en busca de posibles violaciones interpretaron que en el vídeo se negaba la pandemia, cuando lo que hacían los autores era mofarse de quienes dudaban de su existencia. El problema es que estos sistemas informáticos no son capaces, en líneas generales, de distinguir un comentario irónico, por ejemplo.

Por tanto, a día de hoy, y con la directiva a falta de transponer en la mayoría de los países europeos, sigue sin saberse a ciencia cierta cómo se van a implementar estos sistemas. En Alemania, donde ya se ha adaptado la normativa a nivel nacional, este tema (reflejado en el Artículo 17) se ha solventado introduciendo salvaguardas de los derechos de los usuarios contra esos bloqueos, que se aplicarán antes de que este ocurra. Además, las plataformas deberán dar acceso a los investigadores a los datos sobre cómo están moderando los contenidos y, por otro, se pone a disposición de los usuarios recursos colectivos para “obtener medidas cautelares” contra las plataformas. 

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.