Nosotros
Public Policy

La posición de la Fundación Maldita.es sobre las propuestas del gobierno para “defender los derechos digitales en las redes sociales”

Publicado el
Tiempo de lectura: 11 minutos
Share:
En corto:
  • Todavía no se ha presentado un texto legal concreto, por lo que es difícil analizar el alcance y la potencial efectividad de algunas de esas reformas si son aprobadas.
  • Para prohibir el acceso de los menores a las redes sociales no se puede acabar con el anonimato en Internet ni llevar a las plataformas a recopilar más datos sensibles de menores.
  • La responsabilidad penal de los ejecutivos es menos efectiva que la responsabilidad económica de sus empresas:  Elon Musk no a venir a España a declarar, pero su empresa gana dinero aquí
  • Le damos la bienvenida al anuncio de más acciones legales contra la sexualización de menores en Internet con IA, que hemos  denunciado repetidamente en nuestras investigaciones

El gobierno ha anunciado un paquete de medidas “para defender los derechos digitales en las redes sociales”, entre ellas una prohibición de acceso para menores de 16 años; la penalización de la manipulación algorítmica y la amplificación de contenidos ilegales; la responsabilidad penal de los directivos de las plataformas digitales; y la “tolerancia cero” con el contenido sexualizado de menores. En la Fundación Maldita.es llevamos muchos años investigando el papel que juegan las grandes plataformas en la desinformación y sus responsabilidades, por eso queremos compartir nuestra opinión.

En primer lugar, con lo que sabemos hoy, es difícil formar una opinión definitiva. Varias de las medidas requieren reformas legislativas y el gobierno todavía no ha presentado un texto legal que es imprescindible para entender el alcance y la efectividad de esas reformas, si es que finalmente se convierten en ley después de pasar el trámite parlamentario. Aún así, creemos que podemos aportar algo a este debate público con nuestra experiencia y la mejor evidencia disponible. También hace falta clarificar qué tipo de plataformas se considerarían “redes sociales” y por tanto afectadas por esta medida: si a aquellas que la legislación europea considera “plataformas muy grandes” por su número de usuarios o también, por ejemplo, a un foro como Reddit o Discord, o a las aplicaciones de mensajería.

La prohibición de acceso a las redes sociales a menores de 16: EL PELIGRO ESTÁ EN LOS DETALLES

Este es un debate que no ha llegado en exclusiva a España. Una prohibición similar lleva en vigor en Australia desde hace dos meses y está en tramitación en Francia y en el Reino Unido. En todos esos países la justificación de los partidarios de la medida es similar y apunta a diferentes estudios que documentan problemas de adicción y consecuencias negativas para el aprendizaje o la salud mental. También señalan que la ley ya prohíbe a los menores el acceso a otros productos considerados dañinos como el alcohol o tabaco, o les impide acceder a determinados establecimientos como salas de apuestas.

Hay una discusión de fondo sobre hasta qué punto las redes sociales son equiparables a esos productos en cuanto al daño que suponen, pero además hay un debate que en Maldita.es consideramos fundamental sobre cómo se aplica en la práctica una prohibición de este tipo. El presidente del gobierno ha dicho específicamente que lo que pretende no es que haya “casillas de verificación, sino barreras reales que funcionen”. Y eso puede ser un problema. 

Una medida que pretende proteger a los menores no puede convertirse de facto en el fin del anonimato en Internet o en un mecanismo de control por parte del Estado para saber quién y quién no tiene un perfil en redes. Tampoco las plataformas pueden ser por sí solas las garantes de este cumplimiento si eso les lleva a recopilar y procesar datos sensibles de todos sus usuarios, especialmente si son menores. Al mismo tiempo, otro tipo de tecnologías de estimación de edad a través de reconocimiento facial se están mostrando ineficaces en Australia, donde los testimonios de los propios menores indican que el efecto real de la medida está siendo muy limitado. Hay que tener en cuenta también que una prohibición de acceso a determinadas redes puede acabar con los menores en lugares más peligrosos y menos regulados en internet, como Roblox

En cualquier caso y como no se conocen todavía los detalles del cambio legislativo, que el gobierno quiere incorporar al Proyecto de Ley de Protección de Personas Menores de Edad en Entornos Digitales, estamos abiertos a reconsiderar algunas de nuestras dudas si esos problemas se atajan. Lo que no va a cambiar es nuestra actitud hacia otras cosas que los poderes públicos pueden hacer para proteger a los menores en el entorno digital.

Los menores y todos los españoles necesitamos mucha más formación para afrontar las amenazas en Internet, para cultivar el sentido crítico y la alfabetización mediática. La escuela y la familia son espacios adecuados para tener este tipo de conversaciones y las administraciones pueden favorecerlas, empezando por incluir oficialmente estos temas como competencias transversales en el currículo educativo. Es algo que Maldita.es le ha propuesto a diferentes gobiernos a todos los niveles.

La responsabilidad penal contra directivos y por manipulación algorítmica y amplificación de contenido ilegal: LA RESPONSABILIDAD ECONÓMICA ES MÁS EFECTIVA PARA LOGRAR CAMBIOS

Las plataformas digitales más grandes no cumplen con sus obligaciones legales sobre la retirada de contenido ilícito, como hemos documentado en Maldita.es una y otra vez. Esto genera una sensación de impunidad que mina la confianza pública, ya que parece que los espacios digitales funcionan a veces al margen de las reglas que imponen los estados democráticos. Sin embargo, no está claro que la persecución penal sea la forma más efectiva de lograr el objetivo final: que estas plataformas realicen los cambios necesarios para afrontar el problema.

En nuestra experiencia, lo que ha funcionado mejor es aumentar la responsabilidad económica y patrimonial de esas plataformas. Elon Musk no va a venir a España a declarar como imputado, pero X tiene un próspero negocio en España que sí puede ser objeto de multas. En Maldita.es creemos que es ese daño económico el que de verdad puede generar cambios y, aunque la legislación europea ya recoge la posibilidad de multas muy contundentes por infracciones similares, también en España se puede avanzar en ese sentido.

La propuesta del gobierno habla de varias cosas, así que es importante aclarar algunos conceptos. No hay que confundir desinformación con contenido ilegal: hay mucho contenido ilegal que no es desinformación y la gran mayoría de lo que es desinformación, no es ilegal. Ante el contenido ilegal y en particular el que es obviamente ilegal (abuso sexual de menores, amenazas, estafas evidentes…) su obligación es borrarlo o asumir la responsabilidad legal por los daños ocasionados. 

En el caso del contenido dañino pero legal, como es la mayoría de las veces la desinformación, se puede exigir a las plataformas que tomen medidas, pero en Maldita.es defendemos desde hace años que el borrado que practican plataformas como YouTube o TikTok no es una medida efectiva contra la desinformación; al contrario, crea más desconfianza, desprotege al usuario y le da una excusa a la plataforma para no hacer lo que sí es efectivo: dar más información, añadir contexto, explicarle a los usuarios que lo están viendo por qué hay un problema ahí. 

En la Unión Europea ya existe legislación que explicita cómo denunciar contenido ilegal ante una plataforma y cómo debe actuar esta para bloquearlo, y esa misma ley también impone obligaciones a las plataformas más grandes para que tomen medidas para atajar la desinformación, que no pasan necesariamente por el borrado. Lo que parece proponer el gobierno (de nuevo, a falta de ver el texto legal real) es avanzar en la responsabilidad penal de los directivos de las plataformas “en particular cuando incumplan una orden de retirada de contenidos ilícitos”, pero también menciona los “contenidos tóxicos”.

En primer lugar, sólo contemplamos que esa “orden de retirada” se refiera a una orden judicial, cualquier otra cosa sería inconcebible. Hay algo que es importante aclarar: legalmente, ya se puede exigir a una plataforma responsabilidades por no haber actuado ante un contenido que un usuario le notificó como ilegal si luego un juez decide que era obviamente ilegal. Pero siempre tiene que ser un juez quien tiene la última palabra. 

En cualquier caso, y hablando de la responsabilidad penal de los directivos, tenemos que volver a la cuestión de la utilidad de la reforma. Si el texto final acaba refiriéndose a la responsabilidad penal de los jefes globales de las plataformas, lo más probable es que esos ejecutivos difícilmente puedan acabar sentándose en el banquillo en España. Si por el contrario, hablamos de facilitar la responsabilidad penal de los representantes legales de esas plataformas en España, no parece que la amenaza de un castigo penal a esas personas vaya a alterar significativamente la actitud de esas empresas.

En cuanto a las acciones que el gobierno anuncia para “penalizar la manipulación algorítmica y la amplificación de contenidos ilegales” es imprescindible conocer los detalles del texto para poder opinar. Como hemos dicho, ya hay legislación europea en vigor sobre la responsabilidad de las grandes plataformas en la gestión de estos riesgos para los que la Comisión Europea tiene competencia exclusiva de supervisión, pero la amplificación algorítmica es una cuestión clave cuyos efectos hemos estudiado en profundidad en Maldita.es

Estamos más que interesados en entender cómo una reforma legal establecería esa responsabilidad y el modo de probar la manipulación, particularmente cuando las plataformas hacen todo lo posible por evitar que se auditen sus algoritmos con valor legal. Si por el contrario hablamos de usuarios que manipulan los sistemas para amplificar contenido ilegal, será interesante ver qué tipo de penas se contemplan, aunque de nuevo nos parece que la responsabilidad patrimonial sería un instrumento más adecuado. 

Tolerancia cero con infracciones vinculadas a contenido sexualizado de menores”: ADAPTAR LAS LEYES EXISTENTES A LOS CAMBIOS TECNOLÓGICOS

Algunas de nuestras últimas investigaciones dejan claro que grandes plataformas como TikTok tienen un problema con el contenido sexualizante de menores que no pueden o no quieren atajar. En este ámbito puede ser una buena idea clarificar la formulación legal del delito de tenencia y distribución de pornografía infantil para adaptarse a los nuevos formatos en los que se produce, como la generación de contenido sexualizante mediante sistemas de inteligencia artificial.

En esta materia, el gobierno ha anunciado su voluntad de trabajar con el resto de instituciones públicas y en particular con la Fiscalía en la aplicación de las leyes vigentes. Nos parece particularmente importante que el gobierno empuje también esa colaboración en las instituciones europeas y en particular que se asegure de que estos riesgos reciban la atención prioritaria de los equipos de aplicación del Reglamento Europeo de Servicios Digitales de la Comisión Europea. 

RECOMENDACIONES DE LA FUNDACIÓN MALDITA.ES AL LEGISLADOR

  1. El objetivo declarado de la reforma es positivo: “la protección de menores, la salud mental y la difusión de desinformación”, pero el contenido ilegal es sólo una parte del problema y las responsabilidad penal es sólo una parte de la solución.

  1. Hay que definir bien los conceptos legales de lo que se quiere perseguir y cómo interactuarían esas normas con el marco existente en la UE para regular a las grandes plataformas.

  1. La primera responsabilidad de los poderes públicos frente a la desinformación es no producir desinformación, en segundo lugar favorecer la capacidad de la ciudadanía para hacerle frente mediante la educación y con el apoyo a un ecosistema mediático de calidad, y sólo en tercer lugar la regulación, aunque esta puede tener un papel relevante al abordar el papel de las grandes plataformas.

  1. Cualquier reforma debe tener como inspiración la defensa de los derechos a la libertad de expresión y a recibir información veraz recogidos en el artículo 20 de la Constitución Española. No sólo debe defenderlos, debe además explicar claramente a la ciudadanía por qué las actuaciones contra la desinformación y a favor de la rendición de cuentas de las grandes plataformas son beneficiosos para el disfrute de esos derechos, y buscar el consenso social más amplio posible para ponerlas en marcha.

Etiquetas: