Aunque no seamos del todo conscientes de ello, hay ocasiones en las que una empresa o una administración puede estar decidiendo algo que nos incumbe a través de un programa informático. La concesión de una ayuda, la renovación de un contrato, el aumento de la cuota de un seguro… Son decisiones que puede estar tomando un algoritmo en función del análisis que hace de la información que tiene sobre nosotros.
Veámoslo con ejemplos concretos: en Reino Unido se condenó a casi 40 trabajadores del servicio postal porque un programa informático determinó que estaban cometiendo fraude y robando dinero. Se equivocó. En Holanda, varios trabajadores de Uber fueron despedidos porque un algoritmo aseguró que su productividad era baja. Estos denunciaron a la empresa y el caso acabó en los tribunales.
No siempre se conoce si se ha empleado un algoritmo en una decisión
A pesar de estos casos reales, no es lo común que una persona se entere de cuándo un algoritmo ha tomado o está tomando una decisión sobre ella. Puede tener sospechas, indicios o enterarse de ello a través de terceras personas, pero no todas las empresas u organizaciones hacen públicos los algoritmos que utilizan para cada acción y tampoco se lo comunican a sus empleados, en el caso del mundo laboral.
¿Cómo podemos enterarnos de si una empresa, partido, organización, institución, etc. está usando algoritmos para decidir algo sobre nuestra persona? ¿Y cómo podemos reclamar si ese algoritmo ha tomado una decisión errónea al respecto? En el caso de España, el primer paso es acudir a la Agencia Española de Protección de Datos (AEPD).
Gemma Galdón, directora de la consultora Éticas y especialista en auditoría de algoritmos, nos explica que el Reglamento General de Protección de Datos (RGPD) “incorpora toda una parte referente a la decisión automatizada y la explicabilidad de los algoritmos”.
Lo recoge de forma específica en al menos dos artículos: el artículo 15 sobre el derecho de acceso explica que podemos pedir a una entidad “la existencia de decisiones automatizadas, incluida la elaboración de perfiles”, así como la “lógica” por la cual funciona ese algoritmo. Es decir, que amparándonos en este derecho podemos exigir que nos digan si alguna vez un programa informático ha tomado una decisión en base a nuestros datos que nos ha terminado afectando. En el artículo enlazado te explicamos cómo ejercitar este derecho.
Por otro lado, el artículo 22 nos dice lo siguiente: “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”. Por tanto, tenemos base legal para acogernos si queremos reclamar que un algoritmo tome una decisión sobre nosotros.
Galdón explica que en estos casos la primera instancia es la denuncia a la AEPD porque es “gratuito” y puede reclamarse teniendo “indicios” de que un programa informático ha tomado una decisión automatizada que nos afecta: “Si quisieras ir a un juzgado tendrías que tener pruebas, y sin visibilidad del algoritmo o sin haberlo ubicado no las tendrás, solo la sospecha de que se ha utilizado o de que ha funcionado mal”.
La nueva 'Ley Rider' obliga a las empresas a dar información a sus empleados sobre los algoritmos
Recientemente, se ha aprobado la llamada ‘Ley Rider’, de la cual te hablamos a fondo en este artículo. Esta nueva normativa indica que las empresas deberán proporcionar información a sus empleados sobre los algoritmos que puedan afectar a su relación laboral y a la toma de decisiones. Como recuerda Galdón, esto abre otra puerta a la denuncia de un algoritmo que falla, pero en todo caso sería un “camino judicial”.
También es importante señalar que con los Presupuestos Generales del Estado destinados a 2022 se ha aprobado la creación de una Agencia Española de Supervisión de la Inteligencia Artificial, que recibirá una dotación de cinco millones de euros. Por el momento, no queda claro si presentará herramientas para la ciudadanía o si se centrará solo en la auditoría algorítmica.
En la publicación del Boletín Oficial del Estado solo se indica que llevará a cabo “medidas destinadas a la minimización de riesgos significativos sobre la seguridad y salud de las personas, así como sobre sus derechos fundamentales, que puedan derivarse del uso de sistemas de inteligencia artificial”.