MENÚ
MALDITA TECNOLOGÍA

Setenta académicos, profesionales y activistas reclaman paralizar las herramientas de reconocimiento facial en España hasta que se regulen legalmente

Publicado miércoles, 24 marzo 2021
Comparte
Categorías
Algoritmos
Recursos utilizados
Fuentes oficiales (comunicados, bases de datos, BOE)
Material producción propia

Hasta que no haya ley que las regule, las herramientas de reconocimiento facial no deben ser utilizadas en España. Esta es la petición que setenta académicos, profesionales y activistas de diversos ámbitos han elevado al Gobierno a través de una carta.

En concreto, los firmantes reclaman “una moratoria en el uso y comercialización de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas hasta que la Cortes Generales y las instituciones legislativas europeas debatan cuáles, de qué manera, en qué condiciones, con qué garantías y con qué objetivos debe permitirse, si cabe, el uso de estos sistemas”.

La petición llega en un momento en el que ya se están utilizando este tipo de técnicas, tanto en espacios públicos como en entornos privados. En Maldita Tecnología ya te contamos qué tipos de discriminaciones pueden ir asociadas al reconocimiento facial y repasamos algunos casos concretos como el de Mercadona.

¿Por qué una moratoria?

Para los expertos firmantes resulta necesario que el Gobierno se plantee regular esta tecnología antes de que esta siga expandiéndose “y se convierta en un estándar de facto”. En otras palabras, si el reconocimiento facial no se amolda a una ley concreta que asegure el respeto a los derechos de los ciudadanos, temen que la ley vaya a ser la que se tenga que amoldar a las prácticas que ya existen.

En la carta se alude a que esta tecnología supone una “intromisión en la esfera privada de la vida de las personas sin su consentimiento explícito” y pone en jaque “cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión”.

Uno de los últimos ejemplos de este cuestionable uso del reconocimiento facial vino de la mano de Renfe, que impulsó una licitación para emplear esta técnica en el control de posibles aglomeraciones o disturbios en los andenes. El problema surgió cuando se comprobó que uno de los requisitos era que este software pudiera identificar el origen étnico, el sexo o la vestimenta de los pasajeros. La compañía retiró la licitación poco después de que se hiciera público.

¿Qué problemas se derivan del reconocimiento facial?

Para los firmantes, el uso de programas de análisis facial puede derivar en “graves problemas” para los derechos civiles. En concreto, se explica que asimilar una persona a un colectivo en base a sus rasgos o datos biométricos es “altamente problemático” ya que se perpetúa el estereotipo, sea en el ámbito que sea. Por ejemplo, que esta persona pueda ser peligrosa o morosa porque “otros similares a él lo son” es una premisa injusta de base.

“Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos ‘problemáticos’, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas”, enumera la carta.

El reconocimiento facial, además, ha llevado en varias ocasiones a “falsos positivos y falsos negativos”. ¿Por qué? Depende mucho de cómo entrenes la inteligencia artificial y con qué tipo de imágenes. Si la ‘educas’ con muchas fotos de hombres blancos o con condiciones de luz específicas, por citar dos ejemplos, el análisis facial tenderá a ser menos preciso para las personas negras o con condiciones lumínicas distintas.

“Existe pues una variada gama de razones (tanto técnicas como éticas) que justifican la creación de una comisión para investigar la necesidad de una moratoria, que nosotros consideramos imprescindible y urgente. Sugerimos que esta comisión sea independiente y esté compuesta por científicos, juristas, expertos en ética e inteligencia artificial y por miembros de la sociedad civil, especialmente de aquellos colectivos que pueden verse prima facie afectados por estos sistemas”, concluye la misiva.