MENÚ
MALDITA TECNOLOGÍA

Preguntas y respuestas sobre la Ley de Servicios Digitales: ¿cómo afecta a lo que publico en redes sociales? ¿Me podrán censurar? ¿Quién se encarga de que la DSA se cumpla?

Publicado
Actualizado
Claves
  • Varios contenidos en redes sociales aseguran que la DSA “atenta contra la libertad de expresión” y que es una herramienta para que la Comisión Europea “censure” a los ciudadanos
  • La DSA sólo requiere suprimir las publicaciones que son ilegales según leyes nacionales o de la UE (no las que incluyen desinformación, a no ser que sea sobre contenido ilícito)
  • La ley también obliga a las empresas a que sean más transparentes en sus decisiones y nos da derecho a apelar cuando moderen nuestros contenidos, medidas que protegen nuestra libertad de expresión
  • La Comisión Europea vigilará a las plataformas más grandes, mientras que el resto dependerán de los coordinadores de servicios digitales designados en cada país. Otros expertos y los propios usuarios también jugarán un papel clave en la aplicación de la ley
Comparte
Categorías
Recursos utilizados
Legislación

Desde el 25 de agosto de 2023 las principales plataformas en línea como Twitter (ahora X), TikTok o Instagram tienen que cumplir con la Ley de Servicios Digitales (DSA, por sus siglas en inglés): un conjunto de normas aprobadas por la Unión Europea (UE) que buscan proteger a los usuarios y sus derechos. Desde el 17 de febrero de 2024 la obligación se ha extendido al resto de plataformas en línea que operan en la Unión Europea.

Uno de los objetivos que persigue es luchar contra la desinformación en línea y contra los contenidos ilícitos, lo que ha despertado dudas sobre la libertad de expresión, la censura y quién controlará estas medidas. Es un tema complejo y que nos afecta a todos en nuestro día a día digital, así que estamos pendientes para resolver vuestras preguntas: podéis escribirnos a [email protected], a través de nuestras redes sociales (en Twitter @MalditaTech) y en nuestro chatbot de WhatsApp al +34 644 22 93 19

A un clic, ¿de qué hablamos en este tema? Pincha para ampliar

¿Qué tiene que ver la DSA con las publicaciones que compartimos en redes sociales?

La Ley de Servicios Digitales (Digital Services Act) es un conjunto de normas aprobadas por la Unión Europea con el objetivo de regular los servicios digitales, como redes sociales o tiendas online, para ofrecer mayores garantías a los usuarios de la UE. Con esta regulación, la Unión Europea introduce una serie de obligaciones que las plataformas (como Twitter, Facebook, Instagram, TikTok, LinkedIn, Zalando, Booking o Amazon) deben cumplir o arriesgarse a ser sancionadas (aquí puedes encontrar más detalles).

Dos de los focos de la regulación son la difusión de contenidos ilícitos y de desinformación a través de estas plataformas digitales, entre otros aspectos que puedes consultar aquí.

¿Promueve la DSA la censura de contenidos en plataformas digitales? ¿Van a borrar mis publicaciones?

Varios contenidos en redes sociales han asegurado que las medidas propuestas en la DSA “atentan contra la libertad de expresión” y que la ley “censura” las publicaciones de los ciudadanos. Sin embargo, la Ley de Servicios Digitales sólo establece medidas que cubren la detección, identificación y eliminación (Art. 7) de aquellos contenidos que sean ilícitos. Es decir, publicaciones que comparten contenido ilegal (como la pornografía infantil, contenido terrorista, publicaciones que inciten al odio, venta de productos ilegales…).

Fuente: preámbulo 80 de la Ley de Servicios Digitales.

La DSA no ofrece una definición concreta de “contenido ilícito”, sino que deja a las leyes de cada país y las de la UE esa decisión e interpretación. Además, si un contenido es ilegal en un país concreto, se restringirá sólo en ese territorio. Por otro lado, el resto de publicaciones que no caigan dentro de esta categoría de contenido ilícito estarán sujetas  a las normas de cada plataforma. 

¿Pueden las plataformas digitales restringir las publicaciones que quieran?

Las normas de la DSA sobre cómo tratar publicaciones sólo aplican a contenidos que vayan en contra de la ley. Sin embargo, hay que recordar que detrás de las plataformas hay empresas privadas que establecen normas propias (los famosos “términos y condiciones”) sobre qué se puede compartir y qué no en sus servicios, y qué mecanismos existen para restringir las publicaciones que no siguen sus normas.

Muchas redes sociales como Twitter o Instagram ya contaban con estos procesos de moderación de contenido, pero hasta ahora el usuario no disponía de ningún tipo de garantía que protegiese su libertad de expresión frente a las decisiones infundadas de las plataformas privadas. Es aquí dónde entra en juego la DSA.

La nueva ley busca mejorar la protección de los derechos fundamentales de los usuarios, especialmente la libertad de expresión. Exige así que se aumente la transparencia y se eviten decisiones injustificadas o discriminatorias por parte de estas empresas privadas, como recalca el comisario europeo de mercado interior Thierry Breton.

Thierry Breton: “La moderación de contenidos no significa censura. En Europa no habrá un Ministerio de la Verdad”; “La DSA llega para proteger la libertad de expresión de decisiones arbitrarias”. Fuente: Twitter.

Esto implica tener unos términos y condiciones de la plataforma públicos y accesibles (Art. 14) para que los usuarios sepan a qué normas están sujetos y permitirles conocer e impugnar las decisiones de las plataformas sobre sus publicaciones (Art. 17). Es decir, una red social como Facebook (que no deja de ser una empresa privada) no podrá borrar una publicación de un usuario sin notificarle de esta decisión, incluyendo el motivo y la forma de apelar. Además, ciertas plataformas digitales tendrán que publicar informes públicos sobre el número y tipo de publicaciones que han moderado. 

¿Cómo aborda la DSA la desinformación en línea? ¿Se “prohíbe” su publicación? ¿Se establecen criterios?

Algunos usuarios comparten que esta ley será una forma de que las instituciones “bloqueen por desinformación” los contenidos que “contradicen a las autoridades”. La desinformación por sí misma no está prohibida por las leyes de la UE. Pero como hemos visto sí que impone medidas para eliminar o fomentar la eliminación de ‘contenidos ilícitos’. Por tanto, si una publicación que difunde desinformación no es ilegal, no se tratará de esta forma, respetando así la libertad de expresión. Si una publicación que difunde desinformación incluye contenido ilícito, sí que estará restringida por tratarse de un contenido ilegal.

Ahora bien, sí existen ciertas consideraciones en la DSA que pueden ayudar a reducir la desinformación sobre ciertos temas. El texto establece que las grandes plataformas deben evitar que sus servicios se exploten para difundir o amplificar contenidos con efectos negativos sobre:

  • El ejercicio de los derechos fundamentales.

  • Los procesos democráticos, el discurso cívico y los procesos electorales, así como sobre la seguridad pública.

  • La protección de la salud pública, los menores, el bienestar físico y mental de una persona, o que promuevan la violencia de género.

Con este fin, las plataformas deberán analizar sus sistemas, algoritmos y diseños para realizar una evaluación de riesgos (Art. 34) y crear una estrategia para reducirlos (Art. 35). El texto especifica que, al hacerlo, deben centrarse no sólo en los riesgos asociados al contenido ilegal, sino también en “cómo se utilizan sus servicios para difundir o amplificar contenidos incorrectos o engañosos, incluida la desinformación” (Rec. 84). Es decir, deben intentar que su servicio no favorezca los contenidos dañinos pero legales, entre los que se pueden encontrar publicaciones de desinformación si tienen impacto sobre los aspectos mencionados. Auditorías externas (Art. 37) o códigos de conducta (Art. 45) son algunas de las medidas que se contemplan. En concreto, el actual Código de Buenas Prácticas contra la Desinformación se convertirá en una forma de demostrar que se cumplen con estas obligaciones de reducir la difusión de desinformación dañina.

¿Cómo mantendrá la DSA un equilibrio justo en derechos fundamentales como la libertad de expresión?

La DSA sitúa la protección de la libertad de expresión en el centro de la regulación y nombra este derecho fundamental en numerosas ocasiones. Por ello, las obligaciones sobre los contenidos ilícitos buscan un equilibrio: tratan de evitar que las plataformas abusen de eliminar contenidos por motivos de ilegalidad pero sin que huyan de sus responsabilidades.

Artículo 14 (4) de la Ley de Servicios Digitales.

Los usuarios tienen la opción de impugnar las decisiones tomadas por las plataformas en línea de eliminar su contenido según la DSA, incluso cuando esas decisiones se basen en los términos y condiciones de las plataformas. Los usuarios tienen tres opciones para la resolución de disputas: 

  • Presentar una queja directa a la plataforma (Art. 20).

  • Apelar ante cualquiera de los órganos de disputa extrajudicial que cada país certificará tras la entrada en vigor de la ley (Art. 21). 

  • Acudir a los tribunales.

En el caso de las plataformas en línea de muy gran tamaño y los motores de búsqueda en línea de gran tamaño (VLOP y VLOSE), los usuarios podrán comprender mejor las formas en que estas plataformas impactan en nuestras sociedades y estarán obligadas a reducir esos riesgos, incluyendo los peligros que puedan atentar precisamente contra derechos fundamentales como la libertad de expresión. 

¿Quién va a vigilar que estas empresas y plataformas cumplan la DSA?

La DSA no regula a todas las compañías por igual, sino que se establece un rango de obligaciones en cuatro categorías, que dependen de los servicios que prestan las empresas y del número de usuarios que tengan. Entre ellas destacan las plataformas y motores de búsqueda en línea de muy gran tamaño, llamadas en inglés Very Large Online Platforms (VLOP) y Very Large Online Search Engines (VLOSE), que son las aplicaciones que por su número de usuarios activos en la UE (más de 45 millones al mes) pueden tener mayor impacto social, como Twitter y Google. En este artículo puedes encontrar más información sobre las categorías.

En base a esta categorización, también son diferentes las autoridades encargadas de vigilar que cada tipo de empresa cumpla con la ley. Por un lado, las VLOP y los VLOSE serán supervisadas por la Comisión Europea, en concreto, por un equipo de expertos dentro de la Dirección General de Sociedad de la Información y Medios de Comunicación. Esto trata de garantizar una vigilancia estricta de las plataformas digitales más influyentes y que sea uniforme en toda la UE. Su trabajo será clave para que la DSA no caiga en saco roto y se traduzca en cambios positivos para los usuarios de las plataformas.

Para otras plataformas, cada estado miembro de la UE designará un organismo independiente Coordinador de Servicios Digitales nacional que se encargará de la supervisión de la regulación en el país. Esta figura se tiene que designar antes del 17 de febrero de 2024.  El 24 de enero de 2024 el Ministerio para la Transformación Digital y de la Función Pública designó a la Comisión Nacional de los Mercados y la Competencia (CNMC) como Coordinador de Servicios Digitales de España

Otros países de la Unión Europea también han anunciado quiénes serán sus Coordinadores de Servicios Digitales. Por ejemplo, Rumanía ha designado a la Autoridad Nacional para la Administración y Regulación en Comunicaciones (ANCOM, por sus siglas en rumano), Irlanda ha elegido a la Comisión de Medios y Dinamarca a la Autoridad de Competencia y Consumo.

Fuente: Stiftung Neue Verantwortung.

Los representantes de los coordinadores de servicios digitales de cada país de la UE conformarán la Junta Europea de Servicios Digitales, un grupo asesor independiente a nivel de la UE que supervisará la correcta aplicación del reglamento.

El texto también reconoce a otras figuras que velan por el cumplimiento del reglamento, como son los alertadores fiables: entidades especializadas en detectar contenidos ilícitos. Estos alertadores serán designados por el coordinador de servicios digitales de cada Estado y su función es notificar a las plataformas cuando detecten publicaciones que incumplan con la ley.

¿Puede un usuario contribuir en la aplicación de la DSA?

La DSA también busca la participación de la sociedad civil. Para ello, las plataformas tendrán que establecer canales por los que cualquier usuario pueda denunciar la presencia de contenidos ilícitos. Además, las empresas tendrán que publicar informes sobre las notificaciones recibidas y las actuaciones que haya realizado después de recibir estos avisos.

Esto es de especial importancia ya que la DSA no obliga a las plataformas a monitorizar absolutamente todo lo que se publica en sus servicios. Las plataformas no tienen responsabilidad tampoco sobre los contenidos ilícitos que desconocen. Por tanto, estos mecanismos de notificación a los que los usuarios tendrán acceso dan la posibilidad de dejar constancia de la existencia de esos contenidos ilegales. Sólo cuando una plataforma tiene “conocimiento efectivo” de que un contenido es ilegal, empieza a ser responsable de él.

¿La DSA aplica sólo en la Unión Europea? ¿Puede llegar a otros países?

La DSA es un Reglamento de la Unión Europea, por lo que sólo tiene aplicación en los países miembros de la UE. Esto incluye no sólo los servicios de empresas tecnológicas con sede en países de la Unión Europea, sino cualquier servicio que opere aquí.

Sin embargo, se espera que este paquete de medidas también tenga efectos en otros países a través del conocido como efecto Bruselas, por el que las medidas de la UE se acaban trasladando al resto del mundo. Fue el caso del Reglamento General de Protección de Datos de la UE, pues muchas plataformas decidieron extender los cambios que implementaron para cumplir con esta norma a otros países en los que operaban.

Por ejemplo, Wikimedia Foundation (organización responsable de Wikipedia, una de las grandes plataformas en las que ya aplica la ley) ha asegurado que los cambios que ha introducido a raíz de la DSA se implementarán en el resto del mundo. “Las reglas y los procesos que rigen los proyectos de Wikimedia en todo el mundo, incluidos los cambios en respuesta a la DSA, son lo más universales posibles”, ha asegurado la organización, según recoge Euronews. Snapchat también ha afirmado que implementará alguna de sus medidas a nivel global a raíz de la DSA, según TechCrunch.

Por otro lado, este efecto Bruselas también podría provocar que este primer esfuerzo de la DSA por regular a las grandes tecnológicas inspirase a otros países a crear sus propias leyes similares a la DSA tomando como ejemplo a la regulación europea.

Este artículo se ha actualizado el 6 de septiembre para incluir más información sobre los Coordinadores de Servicios Digitales en la UE. 

Hemos actualizado este artículo a 16/02/2024 para incluir que desde el 17 de febrero la DSA aplica para todas las plataformas digitales de la Unión Europea.


Primera fecha de publicación de este artículo: 31/08/2023

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.