MENÚ
MALDITA TECNOLOGÍA

YouTube y sus algoritmos de recomendaciones: cómo decide qué contenido nos muestra y cuál nos sugiere

Publicado
Comparte
Categorías
Recursos utilizados
Material producción propia

Los algoritmos de recomendaciones de YouTube son uno de los más estudiados por investigadores, pero no precisamente porque la plataforma dé mucha información sobre cómo funcionan. Una vez más, recordamos que este tipo de sistemas solo se pueden estudiar si las empresas hicieran accesible el código informático de los algoritmos que usan para enseñarnos contenido, pero esto es algo que nunca hacen. De modo que los argumentos acerca de cómo funcionan provienen de estudios independientes.

Un dato que resuena desde 2018 es que el 70% de los vídeos que se ven en YouTube vienen de los vídeos que recomienda la plataforma tras ver uno específico. Es decir, que pasamos de vídeo en vídeo a través de la columna de recomendaciones que nos aparece a la derecha y que diseña YouTube al completo. A veces incluye vídeos que ya hemos visto y otro vídeos nuevos basados en lo que estamos viendo.

Estudios demuestran que las recomendaciones de YouTube derivan en contenido gráfico o violento, radicalizado y en desinformación

Si la plataforma se estudia tanto es porque el bucle en el que nos metemos al unir un vídeo de YouTube con el siguiente que nos recomienda la plataforma puede derivar, según estudios de los últimos años, en contenidos que contienen desinformación, que empujan a los usuarios a contenido “radicalizado” o que reproducen imágenes violentas o muy gráficas que no deberían estar en la plataforma porque incumplen sus propias reglas.

Esta última conclusión es la que arroja la investigación más reciente y más extensa sobre los algoritmos de recomendación de YouTube, hecha por la Fundación Mozilla. Durante diez meses, analizaron información combinada acerca de las recomendaciones que la plataforma hizo a 37.380 personas que cedieron esos datos voluntariamente a través de una herramienta automatizada que controlaba qué vídeos se veían.

Afirman que un 40% de los vídeos que recomienda la plataforma son vídeos que un usuario “lamenta” haber visto, ya sea porque no tiene nada que ver con el vídeo anterior, porque muestra contenido inapropiado o violento o porque incluye comportamiento radicalizado. Ponen el ejemplo de un usuario que vio un vídeo sobre el ejército de Estados Unidos y se le recomendó un vídeo titulado “Hombre humilla a feminista en vídeo viral”. Algunos de ellos iban claramente en contra de las normas de la plataforma.

Imagen tomada del informe de la Fundación Mozilla.

YouTube dice que solo analiza nuestra actividad para recomendarnos vídeos

En septiembre de 2021, YouTube publicó una entrada en su blog explicando algunos puntos sobre su sistema algorítmico de recomendaciones. La plataforma dice que analiza “señales” sobre nuestra actividad a la hora de sugerirnos recomendaciones: por ejemplo, nuestro historial de búsqueda y de reproducciones, los canales a los que nos suscribimos y su “contexto”, el país desde el que vemos los vídeos y qué hora del día es. También cuánto tiempo pasamos viendo un vídeo. En este artículo te explicamos cómo configurar el historial de YouTube para que este desaparezca cada cierto tiempo. *

Concretamente, dice analizar 80.000 millones de señales. Algunas de ellas "se complementan entre sí" para informar al sistema sobre lo que le gusta al usuario: "clics, tiempo de visualización, respuestas a encuestas, uso compartido, me gusta y no me gusta". Estas son las básicas que la plataforma dice analizar, pero no ahonda en los otros miles de millones de señales que también recoge de nuestra navegación como usuarios.

YouTube, propiedad de Google, siempre ha asegurado que hacen todo lo posible por que en la plataforma no haya contenidos desinformadores o que vayan en contra de sus reglas y que constantemente están mejorando sus herramientas automatizadas para detectar este tipo de contenido. Sin embargo, no podemos saber qué cambios sustanciales llega a hacer o no, ya que no es posible saber cómo funcionan esos algoritmos.

Por ejemplo, tras la investigación de la Fundación Mozilla, YouTube retiró unos 200 vídeos de los que ellos analizaron y que incumplían las políticas de la plataforma. Sin embargo, según Mozilla, no proporcionaron contexto sobre por qué los retiraban.

* Hemos actualizado este artículo a 17 de septiembre de 2021 para incluir la publicación de YouTube más recientes sobre este su sistema de recomendaciones.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.