MENÚ
MALDITA TECNOLOGÍA

Apple retrasa la puesta en marcha de su sistema de rastreo de dispositivos para buscar pornografía infantil: por qué su aplicación preocupaba a los expertos en privacidad *

Publicado
Actualizado
Comparte
Categorías
Recursos utilizados
Expertos

En agosto de 2021, Apple anunció la puesta en marcha de una herramienta que les permitiría “cotejar” las imágenes almacenadas de los dispositivos de la marca en busca de pornografía infantil. El sistema, que en un primer momento solo iba a ponerse en marcha en Estados Unidos, realizaría un escaneo automático al contenido audiovisual de móviles, tablets y ordenadores de la compañía para compararlos con una base de datos de material de abuso infantil y así poder denunciarlo y evitar su difusión.

Pese a que la multinacional destacaba en su comunicado que la medida “está diseñada teniendo en cuenta la privacidad del usuario”, numerosos expertos en datos personales y asociaciones de derechos digitales criticaron la medida al considerar que se abre la puerta a la vigilancia del usuario.

Apenas pasadas unas semanas después del anuncio, Apple ha añadido un aclaratorio a su comunicado en el que asegura que tras ponderar la respuesta a la iniciativa que obtuvieron de "clientes, grupos de defensa de derechos e investigadores", entre otros, han decidido emplear más tiempo durante "los siguientes meses" para decidir cómo implementan el sistema de rastreo. *

Cómo funciona el ‘escaneo’: una herramienta criptográfica comparará de manera indirecta las imágenes con una base de datos

¿Qué proponía exactamente Apple? Según detallan en el anuncio de la herramienta, su funcionamiento se basaba en que antes de que una imagen se almacene en Fotos de iCloud, el servicio en la nube de la compañía, “se realiza un proceso de comparación en el dispositivo para esa imagen con los hashes conocidos de material de abuso infantil. Este proceso de cotejo se basa en una tecnología criptográfica (...) que determina si hay una coincidencia sin revelar el resultado”.

Una de las claves del proceso es el hash al que Apple hace referencia. Se trata de una etiqueta formada por una secuencia aleatoria de caracteres que crea un algoritmo diseñado por la multinacional tecnológica. Esta etiqueta se asigna a cada imagen en función de lo que el algoritmo ve en ella: la cantidad de píxeles, los colores y su disposición. Los hashes también son utilizados para guardar de forma segura las claves en los gestores de contraseñas o en los navegadores, como ya os contamos en Maldita.es.

El mecanismo es el siguiente: Apple no analizará cada fotografía de manera individual, ya que este proceso sería demasiado costoso en tiempo y recursos teniendo en cuenta los millones de usuarios que utilizan sus dispositivos. 

Esquema aportado por Apple sobre cómo funcionará el escaneo de imágenes en los dispositivos de sus usuarios. Fuente: Apple

Por ejemplo, si estamos de vacaciones y le sacamos una imagen a la puesta de sol, el algoritmo asignará un código en función de lo que vea en la fotografía, sus colores y la composición. Algo como ‘dSfdg434jsjsj$slc’, una clave que para nosotros no tiene sentido pero sí para el algoritmo diseñado por Apple. Este es el hash del que hablábamos antes y sirve para codificar una foto y analizarla de forma indirecta, sin entrar en el archivo original.

Apple afirmaba que la privacidad del usuario estará garantizada porque lo que coteja es esta clave con otras de la base de datos a la que le ha dado acceso el Centro Nacional para Menores Desaparecidos y Explotados estadounidense (NCMEC, por sus siglas en inglés), por lo que no analizará el contenido último de las fotografías de los usuarios.

En resumen: en caso de que varios hashes señalados por el NCMEC como peligrosos se detecten en un dispositivo de Apple, la compañía pasara a realizar una revisión “manual” de los archivos. En ese momento un equipo humano comprobará la naturaleza del contenido que ha hecho saltar las alarmas antes de reportarlo a las autoridades.

Expertos advierten de los peligros de “incorporar vigilancia” a los dispositivos de la marca y las comunicaciones

La medida puso en pie de guerra a expertos en privacidad y asociaciones de derechos digitales. Matthew Green, profesor de Criptografía en la Universidad Johns Hopkins, aseguró en Twitter que la medida es una “muy mala idea” ya que, eventualmente, “podría ser un ingrediente clave para incorporar la vigilancia a los sistemas de mensajería encriptada”.

Una de las preocupaciones de Green es la del sistema de creación del hash. Según explica, algunos estudios ya apuntan a que es posible utilizar herramientas para hacer el proceso inverso y obtener la imagen original a través del código, además de los posibles fallos de precisión del algoritmo a la hora de comparar las imágenes.

Carmela Troncoso, profesora de la Escuela Politécnica Federal de Lausana experta en Seguridad y Privacidad, también se mostró en desacuerdo con la nueva iniciativa de Apple. Bajo su punto de vista, la compañía ha abierto una “puerta trasera” que puede dar acceso directo a la vida privada de los usuarios.

“¿Por qué nos preocupan las puertas traseras? Esencialmente rompen el cifrado: una vez que hay una puerta trasera ya no hay ‘almacenamiento seguro’, ‘mensajería segura’, ‘nada seguro’. Simplemente rompe todas las garantías”, afirmó la profesora.

Troncoso también hizo referencia al sistema de escaneo y creación de hashes, una herramienta que “está lejos de ser perfecta y que puede dar lugar a acusaciones ilegítimas o permitir la segmentación” de los usuarios.

La entidad European Digital Rights (EDRi), que aglutina 58 entidades pro-derechos digitales del continente, también se ha mostrado crítica con el anuncio de la multinacional estadounidense. Su responsable de Políticas Públicas, Diego Naranjo, explica a Maldita.es que “al permitir el escaneo de fotos en las comunicaciones privadas y en iCloud, los productos de Apple se convertirán en una amenaza para sus usuarios. La compañía debería dar un paso atrás, abandonar estos cambios y defender a las personas de la vigilancia corporativa y gubernamental”.

Apple también analizará las búsquedas en Siri y la aplicación Mensajes

Aunque sea la medida más debatida, el ‘escaneo’ de fotografías en los dispositivos no fue la única herramienta anunciada por Apple para luchar contra la difusión de pornografía infantil. 

Según anunció la empresa, el asistente de voz Siri “proporcionará a los padres y a los niños información ampliada y ayuda si se encuentran con situaciones inseguras en internet. Siri y Search también intervendrán cuando los usuarios intenten buscar temas relacionados con abuso de menores”.

La tercera medida afectaría al servicio Mensajes. Apple planteó nuevas medidas para “advertir a los niños y a sus padres” cuando reciben fotos que se han identificado como sexualmente explícitas. La imagen primero sería pixelada en la aplicación y un aviso prevendría al menor sobre el contenido de la imagen. Como “como precaución adicional”, se le informará de que sus padres van a ser notificados en caso de que acceda a la imagen.

Este último punto también ha sido criticado por los académicos citados unos párrafos más arriba. Troncoso ve problemático que “Apple decida que la inteligencia artificial medie en la relación de los niños y los padres. ¿Qué puede salir mal si la IA decide qué mensajes de un niño deben ser revelados a sus padres?”.

Apple esperaba que estas novedades entrasen en vigor “a finales de año” en Estados Unidos con la llegada de los nuevos sistemas operativos para móviles, ordenadores, tablets y relojes, pero finalmente ha decidido aplazar indefinidamente su puesta en marcha por la respuesta negativa que causó su anuncio.

* Hemos actualizado esta pieza a 3 de septiembre de 2020 para explicar que Apple ha aplazado la puesta en marcha de esta medida.


Primera fecha de publicación de este artículo: 11/08/2021

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.