MENÚ
MALDITA TECNOLOGÍA

Usar maquillaje o prendas de ropa para evitar el reconocimiento facial: hasta qué punto funciona y cuáles son sus límites

Publicado
Comparte
Categorías
Recursos utilizados
Expertos
Literatura científica

El uso de cámaras de reconocimiento facial lleva en el centro del debate sobre los derechos civiles y digitales desde hace un tiempo. De sus falsos positivos y sus sesgos ya os hemos hablado en Maldita.es, pero hoy os hablamos de si es posible “engañar” al sistema a través de maquillaje o determinadas prendas de ropa, como cuentan en varios artículos.

La cuestión de despistar a las herramientas de reconocimiento facial también se ha empleado en sistemas que no procesan la información en directo, como sí lo hacen las cámaras de vigilancia. Recordemos que el reconocimiento facial implica la identificación de una persona a través de un programa informático que escanea los rasgos de su cara, pero también se incluyen en este campo de tecnología otros tipos de reconocimiento de imagen que pasan por analizar otros elementos, como la forma de caminar o la ropa.

Esquivar el reconocimiento facial cambiando la tonalidad de la piel o el brillo

Por ejemplo, en este estudio de la Universidad Federal del Cáucaso del Norte (Rusia), los investigadores modificaron aspectos de una fotografía de una persona, como las sombras, el brillo o el tono de la piel, y esto provocó que el sistema de reconocimiento facial no lo detectase como tal, a pesar de que a ojo de un humano no se apreciaba apenas diferencia entre la imagen original y la modificada. 

¿Y qué sucede en el caso del procesamiento de imágenes en tiempo real? “El caso de utilizar determinadas prendas o maquillaje es conocido como un ataque antagónico, una técnica de ingeniería inversa mediante la que se conoce cómo funciona la red neuronal que permite detectar personas, para buscar por qué punto es débil y llevarlo a una sudadera, por ejemplo”, explica José Luis Calvo, director de inteligencia artificial en Sngular.

Pero no es tan sencillo como parece y, desde luego, tampoco definitivo. Como comenta el experto a Maldita.es, “es una cuestión anecdótica y un tanto limitada, porque si tienen éxito, posteriores versiones de esta red neuronal serían actualizadas para detectar, ahora sí, a las personas que llevan este tipo de prendas”. “Paradójicamente, un éxito comercial llevaría a que les durase muy poco la invisibilidad”, apunta.

Imagen: "Dodging Attack Using Carefully Crafted Natural Makeup". DeepAI.

Los algoritmos se pueden reprogramar para corregir esas flaquezas

Desde EFF, una organización estadounidense dedicada a la protección de las libertades civiles en la vida digital, explican a Maldita.es que “estos métodos son divertidos para ver cómo la gente explora las limitaciones del reconocimiento facial y otras tecnologías de vigilancia, pues atraen la atención hacia este tema”. No obstante, señalan que “no son muy efectivos”, pues los algoritmos que están detrás de ese reconocimiento se pueden reprogramar para corregir esos fallos.

La idea es que se pueden analizar distintos algoritmos mediante la ingeniería inversa para encontrar sus puntos débiles y explotarlos con lo que los hace fallar, ya sea una sombra en un punto específico de la cara (que se puede imitar con maquillaje) o un diseño en un jersey o una camiseta que confunde al sistema con lo que realmente está buscando. 

De este tipo de fallos en sistemas de reconocimiento de imágenes, una tecnología similar al reconocimiento facial que busca reconocer elementos en unas imágenes en vez de identificar a una persona, tenemos un ejemplo reciente bastante cómico, y es que un programa informático que identificaba vehículos por sus matrículas confundió los números que aparecían en la camiseta de una persona que pasó por la calle con la matrícula de una moto registrada. ¿Qué pasó? Que el propietario de la moto terminó multado.

En esta línea, han surgido varias iniciativas de colecciones de prendas o de maquillaje que supuestamente pueden burlar estos sistemas. Para Calvo, “según pone en la tienda que vende esta ropa, se basan en el algoritmo de detección YOLO 2, que es bastante común, y sobre ese sistema han generado la ropa que no detecta”. Por lo que si la cámara utiliza otra versión del YOLO u otro algoritmo diferente, estas prendas no funcionarán.

Pero ojo, el reconocimiento a personas no es el único punto en el que se puede engañar a una inteligencia artificial enfocada en detectar patrones. Como refleja esta investigación conjunta entre la Universidad de California, Washington, Michigan y Samsung Researchse puede engañar a la cámara de un coche autónomo poniendo pegatinas en las señales que evitan que sean detectadas correctamente por el vehículo. 

“La única solución es la prohibición de la vigilancia a través del reconocimiento facial, pues no deja de ser una vigilancia masiva a los ciudadanos, y porque no debemos dejar la responsabilidad de protegerse de estos métodos en cada individuo, sino abordarlo desde un cambio sistemático”, apunta en la misma línea Diego Naranjo, director de Políticas en EDRi, una red de organizaciones y expertos europeos para defender los derechos digitales en el continente. 

Las organizaciones consultadas por Maldita.es abogan por la prohibición de este tipo de tecnologías

EFF considera que, teniendo en cuenta los errores que puede llegar a tener la tecnología de reconocimiento facial en la identificación de personas, “la vía que se tiene que seguir es la de lograr que la legislación prohíba este tipo de tecnología”.

En Europa, de hecho, la propia EDRi junto a otras organizaciones europeas están impulsando la campaña Reclaim Your Face (Reclama tu cara, en español), para pedirle a la Comisión Europea que prohíba la vigilancia a través del reconocimiento facial. En este sentido ya se pronunció también el Parlamento Europeo, que instó a que no se permitiese este tipo de tecnologías en el continente.

“Imaginemos un escenario futuro en el que circulan coches autónomos por la calle, que obtienen una parte de la información sobre cómo actuar por las señales de tráfico: el caos, incluidos accidentes, que se puede provocar si las redes neuronales del vehículo no son capaces de detectar una señal de STOP, ya sea porque obvie esa información o porque la interprete como otra señal totalmente diferente”, advierte Calvo. De esto ya os hablamos en Maldita.es cuando os explicamos por qué todavía no vemos coches autónomos por nuestras carreteras.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.