menu MENÚ
MALDITA TECNOLOGÍA

La desigualdad de género en los algoritmos y la inteligencia artificial

Publicado
Actualizado
Comparte
Etiquetas

Este artículo se ha publicado originalmente en The Conversation y está escrito por Montserrat-Ana Miranda, profesora del Instituto de Ciencia de los Datos e Inteligencia Artificial (DATAI) de la Universidad de Navarra.

En esta época de avances tecnológicos sin precedentes, la inteligencia artificial (IA) es una herramienta que nos ofrece grandes posibilidades en ámbitos como la medicina, la eficiencia energética, el desarrollo sostenible, el medioambiente, el cambio climático o las emergencias humanitarias, entre otros. Sin embargo, la IA también plantea desafíos, especialmente en la lucha contra la discriminación digital, en la que se incluye la discriminación de género.

Un claro ejemplo es el de los sistemas recomendadores o buscadores de nuestros dispositivos móviles debido a que pueden discriminar a la hora de ofrecernos determinados productos o servicios por cuestiones de género. De manera similar, debido a la existencia de prejuicios históricos o culturales, los algoritmos de la IA que procesan datos de personas en herramientas de selección de personal pueden favorecer más a una clase que a otra. Por clase entendemos un determinado género, grupo de edad, comunidad o colectivo.

En el Día Internacional de la Mujer, mujeres y hombres por igual podemos afrontar este desafío ético en relación con la IA. Por un lado, como consumidores (dispositivos IoT, robots, plataformas digitales, etc.) debemos asumir la responsabilidad de tomar decisiones informadas que nos permitan elegir opciones justas, respetuosas con los demás y sostenibles: nuestras elecciones tienen el poder de transformar aquellos algoritmos que aprenden de los datos (algoritmos de aprendizaje de las máquinas o machine learning) para promover la igualdad.

Construir proyectos justos e igualitarios

Por otro lado, los equipos de mujeres y hombres que trabajan con datos reales para desarrollar e implementar herramientas de IA deben apostar por construir proyectos justos e igualitarios con impacto social. Estos proyectos no contemplarían exclusivamente prevenir la discriminación digital, también descubrir patrones de discriminación o estigmatización en la sociedad que permitan diseñar estrategias destinadas a garantizar la igualdad.

Si bien la IA automatiza los procesos que intelectualmente son propios de los seres humanos, esta definición se convierte hoy más que nunca en un compromiso de los profesionales y docentes que trabajan en este campo para garantizar la calidad de vida de todas las personas sin discriminación de ningún tipo. Este debe ser el fin último detrás de cada algoritmo y el que ineludiblemente siempre redundará en beneficio de la sociedad. ¿No es acaso el servicio hacia los demás un proceso intelectual propio de los seres humanos que trasciende fronteras? A este respecto, en el Día Internacional de la Mujer se nos hace imprescindible compartir este “espacio para la igualdad” con todos los grupos vulnerables: niñas y niños, jóvenes adolescentes, personas mayores, personas con discapacidad, personas en situación de marginalidad, etc.

En este contexto, es importante abordar las siguientes preguntas: ¿puede la IA combatir la discriminación? ¿Qué pasos se pueden dar hacia la igualdad? Para responder debemos tomar un enfoque multifactorial.

  • Desde la diversidad y la educación. Creando equipos multidisciplinares de desarrolladores de IA que estén equitativamente representados por mujeres y hombres. Dichos equipos deben contar con el apoyo de un equipo directivo igualmente representado y comprometido con la justicia, la ética y la calidad. Para poder alcanzar esta diversidad es esencial potenciar las capacidades y el espíritu crítico de los más jóvenes desde la educación en todos los ámbitos. Todavía tenemos mucho trabajo por delante. Nuevamente aquí, este día que hemos designado como un espacio para la igualdad se convierte en la plataforma perfecta para apoyar el esfuerzo de todas las niñas, adolescentes y mujeres con perfil científico-tecnológico o STEM (Science, Technology, Engineering and Mathematics) para que puedan perseguir sus objetivos y conquistar sus metas sin “techos de cristal”.
  • Desde el debate social y la acción política. Promoviendo campañas de concienciación y políticas que fomenten la igualdad de oportunidades en el mundo académico, en el mundo empresarial y en la producción industrial o cultural. Por ejemplo, en la U.E. existe el Instituto Europeo para la Igualdad de Género (EIGE) que quiere ser un canal de asesoramiento que permita a los países llevar a cabo políticas de igualdad en diversas áreas. Fuera de la U.E. existen iniciativas como el proyecto Gender Shades del MIT que tiene por objetivo identificar la discriminación de género en la IA.
  • Desde un punto de vista técnico. La representatividad de los datos de entrada (inputs) es fundamental, ya que los modelos “supervisados” de IA aprenden y entrenan a partir de estos datos, lo que significa que todas las clases deben estar igualmente representadas. Asimismo, la transparencia y la accesibilidad de los algoritmos es necesaria para poder comprobar que no están vinculados a estereotipos de género, raza, edad, religión o nacionalidad y puedan ser validados mediante auditorías. Compañías como IBM (AI Fairness 360) y Google (What-if) están desarrollando librerías de código abierto con el objetivo de detectar posibles sesgos mediante métricas de equidad en los algoritmos antes de su implantación.

Para concluir, les voy a contar que como profesora de cursos en la Universidad de Navarra, donde utilizamos herramientas de inteligencia artificial sobre casos de uso reales, año tras año los grupos formados por alumnas y alumnos demuestran su inquietud y compromiso para que los algoritmos no perjudiquen a los más vulnerables dirimiendo estas cuestiones éticas con tesón. Los futuros profesionales de la IA buscan apoyo y soluciones para construir un mundo más justo e igualitario.

Imagen de portada: rawpixel.com en Freepik.

Este artículo se ha publicado originalmente en The Conversation y está escrito por Montserrat-Ana Miranda, profesora del Instituto de Ciencia de los Datos e Inteligencia Artificial (DATAI) de la Universidad de Navarra.

The Conversation

Primera fecha de publicación de este artículo: 08/03/2023

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.