La Comisión Europea anunció el 19 de febrero de 2024 la apertura de un expediente sancionador a TikTok para determinar si ha incumplido la Ley de Servicios Digitales (DSA) en materia de protección de menores, transparencia en la publicidad, por deficiencias en el acceso de los datos para investigadores y por su gestión de riesgos en el diseño adictivo y los contenidos nocivos que se muestran en la app.
La DSA establece varias categorías para clasificar a las plataformas digitales que operan en la UE. TikTok está en la categoría de plataformas y motores de búsqueda en línea de muy gran tamaño (VLOP y VLOSE por sus siglas en inglés), que está bajo supervisión de la Comisión Europea y es la más exigente: las plataformas tienen que cumplir preventivamente con los requisitos establecidos en la ley, y se enfrentan a sanciones en caso de no hacerlo.
La Comisión Europea pide explicaciones a TikTok
Este expediente sancionador a la aplicación, propiedad de la empresa china ByteDance, se basa en un análisis del informe de evaluación de riesgos que, según la Comisión Europea, envió la compañía en septiembre de 2023.
Además, el Ejecutivo comunitario pidió información a TikTok para conocer cómo están cumpliendo con las obligaciones para proteger a los menores que fija la DSA. Otro de los puntos que han determinado la apertura del expediente sancionador ha sido la falta de acceso para los funcionarios de la UE que investigan y revisan el cumplimiento de las plataformas de la DSA.
Este procedimiento viene recogido en el artículo 66 de la Ley de Servicios Digitales y convierte a TikTok en la segunda plataforma, después de X, en enfrentarse a ello.
El procedimiento se centra en:
Si TikTok está evaluando y mitigando los efectos negativos “reales o previsibles” derivados del uso de algoritmos. La Comisión asegura que puede generar el “efecto madriguera de conejo” (cuando el algoritmo ofrece contenidos similares de manera constante, provocando patrones adictivos), y pretende “contrarrestar los potenciales riesgos para la salud física y mental de los usuarios” y su “impacto en los procesos de radicalización”.
Proteger los derechos de los niños. La UE pretende investigar también si las herramientas de verificación de edad utilizadas por TikTok son “razonables, proporcionadas y eficaces”.
Ver si TikTok ha establecido medidas adecuadas y proporcionales para garantizar altos niveles de privacidad, seguridad y protección de menores. La Comisión Europea se va a centrar, sobre todo, en la privacidad que viene predeterminada por defecto en la aplicación para el acceso de menores, por su diseño y el funcionamiento de los algoritmos de recomendación de contenido.
Comprobar si TikTok ofrece un repositorio fiable y accesible de los anuncios que aparecen en la plataforma.
Revisar las medidas que ha adoptado la app china en materia de transparencia. La Comisión Europea tiene “sospechas de presuntas deficiencias” en el acceso a sus datos que TikTok da a los investigadores del organismo comunitario.
Además, la UE ha incluido en su investigación las respuestas que TikTok ofreció a raíz de la situación en Palestina e Israel (una investigación que también ha abierto contra Twitter, (ahora X), por la difusión de contenido ilegal en la UE.
Cuál es el siguiente paso en el expediente sancionador
La Ley de Servicios Digitales no establece un plazo para tener unas conclusiones del expediente y su duración depende de la profundidad de la investigación. Ahora, la Comisión Europea puede seguir pidiendo información a TikTok, realizar inspecciones y entrevistas, previa consulta a los Coordinadores de Servicios Digitales, o tomar medidas cautelares.
Durante el periodo de la investigación, si TikTok corrige alguno de los aspectos bajo la lupa de la Comisión, el organismo comunitario debe estudiar si esos cambios se ajustan a lo solicitado. En caso de que el expediente sancionador concluya que TikTok incumple la DSA, la plataforma propiedad de ByteDance podría enfrentarse a una sanción de hasta el 6% de su volumen anual global.
En respuesta al expediente sancionador abierto por la Comisión, TikTok escribe en su cuenta de X que esperan “tener la oportunidad” de ofrecer detalles del trabajo en materia de protección de menores en la plataforma. TikTok asegura que han sido “pioneros en establecer funciones y configuraciones para proteger a los jóvenes, y mantener fuera de la plataforma a los menores de 13 años” y añade que han colaborado con “jóvenes, expertos en seguridad adolescente y doctores para diseñar experiencias a cada edad”. “Seguiremos trabajando con expertos y la industria para mantener la seguridad en TikTok de los jóvenes”, concluye.
El 15 de septiembre de 2023, la Comisión de Protección de Datos de Irlanda anunció una multa administrativa de 345 millones de euros para TikTok por “el tratamiento de los datos personales relativos a menores de edad”. El organismo irlandés aseguró que TikTok estaba incumpliendo el Reglamento de Protección de Datos de la UE por “permitir que el contenido de menores sea público, que personas que no puedan ser verificadas como padres o tutores legales del menor puedan asociar su cuenta a la del menor (lo que permitía que enviaran mensajes a menores de 16 años), falta de transparencia en la información que se le muestra a los usuarios menores de edad y por los patrones oscuros para que los menores acepten opciones intrusivas de privacidad”.