MENÚ
MALDITA TECNOLOGÍA

Si TikTok esconde tus vídeos, que te lo diga: qué es el 'shadow ban' y qué obligaciones tienen las redes sociales al respecto con la Ley de Servicios Digitales

Publicado
Claves
  • Con el shadow ban se resta visibilidad a los contenidos en redes sociales sin que el autor lo sepa
  • Se usa para quitarle impacto a contenidos inapropiados y evitar la creación de perfiles alternativos, pero algunos usuarios señalan que restringe  la libertad de expresión 
  • La Ley de Servicios Digitales obliga a las plataformas a avisar cuando se aplica esta medida
Comparte
Categorías
Recursos utilizados
Fuentes oficiales (comunicados, bases de datos, BOE)
Legislación

Puede que alguna vez hayas notado que las redes sociales no muestran tus publicaciones o hayas visto que influencers o creadores de contenido se quejan de que sus posts no están teniendo alcance. Es lo que se conoce como shadow ban: una restricción de los contenidos que es invisible para quien la sufre. Esta medida puede ser útil para evitar la difusión de contenidos que vulneran los términos de uso de la plataforma y la creación de cuentas alternativas, pero hay debate sobre cómo afecta a la libertad de expresión. Por eso, aunque las redes sociales pueden querer reducir la exposición de ciertos contenidos, según la Ley de Servicios Digitales (DSA) siempre se tiene que avisar al usuario de ello. Detallamos cómo funciona esta práctica, en qué casos se puede aplicar y qué dice la ley al respecto. 

El shadow ban: cuando las redes sociales restringen a los usuarios sin avisarles

El shadow ban o shadow banning (que se podría traducir como “prohibición en la sombra” o “exclusión oculta”) hace referencia a las restricciones en redes sociales que no son explícitas. Es lo que sucede cuando no se bloquea a un usuario pero sus contenidos dejan de ser visibles para el resto de personas. Las publicaciones no aparecen dentro de los algoritmos de recomendación, no se pueden encontrar después de hacer una búsqueda y en algunos casos sólo están disponibles para los seguidores de ese perfil, pero ellos no lo saben.

A efectos prácticos el shadow ban funciona como una restricción normal, pero con la diferencia de que es invisible: el usuario que lo sufre no es consciente de que su contenido ha sido afectado, ya que no recibe ningún tipo de notificación y puede seguir publicando en redes sociales. Una técnica que (en teoría) sirve para evitar la creación de cuentas alternativas, ya que el autor de estos mensajes aún piensa que son visibles cuando en realidad no tienen alcance.

Pero, justo por ser invisible, no hay datos sobre lo frecuente que es esta práctica. Según una encuesta realizada por el Center for Democracy & Technology (CDT) uno de cada diez usuarios de las redes sociales en Estados Unidos aseguran haber recibido algún tipo de shadow ban, aunque no hay cifras para comprobarlo. Plataformas como Twitter (ahora X), TikTok o Instagram aseguran que no realizan esta práctica y que se tratan de “errores” en la aplicación, aunque otros estudios apuntan a que no es algo casual.

Las redes sociales avisan en sus términos de uso de que reducirán el alcance de los contenidos violentos o sexuales

El término shadow ban ha estado presente en diferentes ámbitos, como el de la política o los derechos sociales. En 2018 el Partido Republicano de los Estados Unidos acusó a Twitter de realizar esta práctica y en 2020 varios miembros del movimiento Black Lives Matter señalaron a TikTok por supuestamente reducir el impacto de las publicaciones relacionadas con la muerte de George Floyd. A raíz de los ataques entre Hamás e Israel varios usuarios también han denunciado que Meta está restringiendo los contenidos sobre Gaza. En todos los casos, se acusaba a las plataformas de hacerlo sin avisar a los autores de las publicaciones. 

Las plataformas aseguran que no realizan esta práctica, pero de hecho sí incluyen en sus condiciones de uso la reducción de la visibilidad y el impacto de ciertos contenidos. Por ejemplo, las políticas de uso de Twitter restringen la publicación de contenido explícito (como imágenes sexuales o violentas) o si no se indica que es contenido para adultos. En caso de infringir esta norma, Twitter asegura que puede “limitar la exposición de las publicaciones que muestran este contenido”.

Fuente: Twitter.

Instagram también detalla que las publicaciones que puedan contener bullying, lenguaje que incite al odio o que pueda alentar a la violencia se mostrarán “más abajo en los feeds y las historias de los seguidores de esa cuenta”. TikTok mantiene una política similar e indica que se excluyen del algoritmo de recomendación (la sección de Feed Para Ti) los contenidos sexuales, desinformadores o contra la  integridad de los procesos electorales. La plataforma también puede hacer que “cierto contenido de este tipo resulte más difícil de encontrar en las búsquedas”.

Fuente: TikTok.

La Ley de Servicios Digitales obliga a las plataformas a avisar de cualquier restricción a sus usuarios

Pese a que las plataformas aseguran que siempre notifican a sus usuarios cuando restringen sus contenidos, hasta ahora no había ninguna normativa que les obligara a ello. Algo que ha cambiado con la llegada de la Ley de Servicios Digitales: el conjunto de normas de la Unión Europea para regular el espacio digital que deben cumplir las grandes plataformas en línea desde el 25 de agosto de agosto y el resto de plataformas desde el 17 de febrero de 2024. 

Según el artículo 17 de la DSA, los prestadores de servicios de alojamiento de datos (que incluye a las redes sociales y a las plataformas) tienen que informar a sus usuarios de las restricciones que les impongan en caso de que publiquen contenidos ilegales o vulneren sus condiciones generales. Esto incluye “cualquier restricción de la visibilidad”, como la “relegación en las clasificaciones o en los sistemas de recomendación” o “bloquear al usuario sin que sea consciente de ello”. Prácticas que constituyen un shadow ban, según señala la ley. 

Fuente: DSA.

Es decir, que Facebook o Twitter no pueden hacer shadow ban a sus usuarios, ya que cualquier medida que afecte a la visualización de un contenido tiene que ser notificada, incluyendo el motivo y la forma de apelar. La única excepción son los “contenidos comerciales engañosos de gran volumen”. A esto se le suma que las plataformas de gran tamaño están obligadas a publicar informes públicos sobre el número y tipo de publicaciones que han moderado. Informes como los que ha publicado Twitter y que muestran que la plataforma de Elon Musk sólo cuenta con 20 moderadores que hablan español. Sin embargo, al ser una práctica invisible, es difícil que el usuario la pueda detectar y que aporte pruebas para poder apelar la decisión. 

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.