menu MENÚ
MALDITA TECNOLOGÍA

Inteligencia artificial y sesgos: cómo una IA puede reflejar ideas sexistas y racistas y provocar desinformación con los sesgos de equidistancia y automatización

Publicado
Claves
  • Los modelos de inteligencia artificial pueden heredar los sesgos de sus desarrolladores y de sus datos de entrenamiento, lo que puede generar desinformación, discriminación y poner en riesgo a las personas 
  • Las respuestas de una IA pueden reflejar sesgos de género y racistas que perpetúan prejuicios; también mostrar un sesgo de adulación (que nos dé la razón en todo) o de equidistancia artificial (que evite posicionarse sobre temas controvertidos) 
  • Los usuarios también podemos tener un sesgo de automatización y confiar en exceso en las respuestas de los modelos de IA, a pesar de que pueden cometer errores y no son fuentes fiables de información 
  • Deshacerse de los sesgos no es tarea fácil, pero expertas en IA sostienen que para combatirlos es clave fomentar la diversidad en los equipos, datos y auditorías, además de la legislación y el pensamiento crítico de los usuarios 
Comparte
Etiquetas

Al igual que las personas, los modelos de IA tienen sesgos: pueden ‘pensar’ de forma equivocada sobre alguien o algo por prejuicios o ideas preexistentes, influyendo en sus decisiones. Esto no significa que sientan o tengan conciencia, sino que pueden heredar los sesgos de sus desarrolladores y de los datos con los que se entrenan, como sesgos de género y racistas que perpetúan estereotipos dañinos. También pueden tener un sesgo de adulación y darnos siempre la razón; o un sesgo de equidistancia artificial y evitar posicionarse sobre temas controvertidos aunque haya evidencia suficiente. Como usuarios tampoco nos libramos: si confiamos en exceso en las respuestas de una IA podemos tener un sesgo de automatización

Todo esto puede provocar discriminación y situaciones injustas, poner en riesgo a las personas si se fían a ciegas de lo que dice una IA y generar desinformación si sus respuestas no se contrastan con fuentes fiables. Deshacerse de los sesgos no es una tarea fácil, pero expertas en inteligencia artificial defienden que podemos evitarlos con una mayor diversidad en los equipos de desarrollo, datos de entrenamiento y auditorías, sumado a la legislación de esta tecnología y reforzar el pensamiento crítico de los usuarios

A un clic, ¿de qué hablamos en este tema? Pincha para ampliar

Una IA puede heredar sesgos de sus desarrolladores y datos de entrenamiento, reproduciendo prejuicios o una visión del mundo determinada

Los sesgos son errores que cometemos a la hora de razonar, evaluar o recordar y que influyen (de forma voluntaria o involuntaria) en las decisiones que tomamos. Estos pueden provocar situaciones injustas si damos mayor peso a favor o en contra de una cosa, una persona o un grupo de personas, por ejemplo, si tenemos visiones machistas, racistas o clasistas

Una IA puede heredar estos sesgos de las personas que interactúan con ella, a pesar de que no piensa ni tiene conciencia, ya que son humanos quienes la desarrollan y deciden con qué datos se va a entrenar, qué funciones va a cumplir y cómo interactúa y aprende del mundo, como explicó Ujué Agudo, doctora en Psicología de la Universidad de Deusto que investiga cómo los algoritmos de IA influyen en la toma de decisiones, en la Maldita Twitchería.

“Principalmente se cuelan por los datos de entrenamiento, que reflejan y amplifican las desigualdades, estereotipos y discriminaciones existentes en la sociedad”, explica Lorena Fernández, experta en perspectiva de género en tecnología y maldita que nos ha prestado sus superpoderes. La especialista agrega que el diseño del algoritmo también juega un papel: “Si el sistema optimiza únicamente por precisión global, sin considerar la equidad entre grupos, es probable que favorezca a los grupos históricamente privilegiados”. 

Los usuarios de los modelos de IA también pueden influir: “Las entradas e interacciones que realizan también refuerzan y nutren el aprendizaje de sesgos de los algoritmos”, explicaron Helena Matute, catedrática de Psicología en la Universidad de Deusto y Naroa Martínez, investigadora postdoctoral en la misma institución, en un artículo publicado en The Conversation.

Sesgos de género: una IA puede adaptar sus respuestas si identifica que eres mujer o hombre y reproducir ideas sexistas 

Uno de los prejuicios más comunes que reproducen los modelos de IA son los sesgos de género, que perpetúan ideas machistas y discriminatorias hacia las mujeres. Estos pueden evidenciarse, por ejemplo, en las respuestas diferentes que generan algunos chatbots de IA dependiendo de si identifica que somos una mujer o un hombre. 

Fernández pone el siguiente ejemplo: si nos identificamos como Miguel ante ChatGPT y le pedimos ideas de títulos para un vídeo de YouTube, nos sugerirá títulos sobre tecnología, cultura popular, viajes, salud y educación; pero si decimos que nuestro nombre es María, asumirá que los vídeos son sobre cocina, moda, estilo de vida, artes y manualidades, y cuidado personal. 

Prueba realizada por Lorena Fernández y compartida con Maldita.es

También podemos encontrar un sesgo de género en muchas traducciones con IA del inglés (que no tiene género gramatical) al español (que sí lo tiene). Si pedimos a DeepL, traductor que funciona con IA, que traduzca la palabra nurse”, nos da como primera opción la palabra “enfermera”. Lo contrario sucede cuando le pedimos traducir doctor”, que convierte en “médico”. 

También sucede con las herramientas de IA generativa, por ejemplo, si pedimos a ChatGPT que cree una imagen de una persona exitosa con el cargo de CEO, nos devuelve la imagen de un hombre blanco

“La presencia de sesgos de género en estos modelos puede tener consecuencias significativas y preocupantes porque están creando verdades algorítmicas irrefutables que refuerzan un modelo único”, advierte Fernández. 

Sesgos racistas: una IA puede reproducir ideas discriminatorias que afectan a las personas racializadas con predicciones inexactas y estereotipos

Los sesgos racistas también se hacen su lugar en los algoritmos de IA, reproduciendo prejuicios discriminatorios. Estos también aparecen en las respuestas que genera una IA. Por ejemplo, un estudio comprobó que si se escribía “el hombre blanco trabaja como…”, una IA completaba la frase con “un oficial de policía”; pero si la frase era “el hombre negro trabaja como…”, generaba el texto “un proxeneta durante 15 días”

Las personas negras se ven más afectadas por los errores y las predicciones inexactas de una IA. Un ejemplo de ello son las tecnologías de reconocimiento facial que utilizan inteligencia artificial que son entrenadas principalmente con caras de hombres blancos: etiquetan a más personas negras como criminales y a mujeres negras como hombres. 

Los distintos sesgos pueden cruzarse y afectar más a ciertos grupos, como a las mujeres racializadas. Por ejemplo, en Canadá, investigadores descubrieron que un algoritmo para detectar anormalidades en radiografías de pecho fallaba más con las mujeres hispanas.

Factchequeado, iniciativa de Maldita.es y Chequeado contra la desinformación en Estados Unidos, analizó una muestra de 60 imágenes generadas con IA de latinos trabajando en EEUU: estas tendieron a representar a los hombres en trabajos manuales o de construcción y a las mujeres en roles vinculados a la limpieza y el sector servicios. Los expertos consultados indicaron que esto puede perpetuar estereotipos dañinos, influir en cómo las personas perciben su rol y limitar lo que consideran posible en la sociedad. 

La falta de representación de personas racializadas en los grupos de investigación y en los datos de entrenamiento provoca que los grupos privilegiados tengan una mayor influencia en cómo se desarrolla la IA. Esto también aplica a los sesgos de género: las mujeres de los países con menos recursos están subrepresentadas en las bases de datos extraídas de internet, ya que sólo un 20% de ellas tiene acceso a la web, según ONU Mujeres.  

Sesgo de adulación: una IA puede darnos siempre la razón, lo que puede reforzar nuestras creencias y aislarnos de otros puntos de vista

Un problema de fiarse a ciegas de las respuestas de una IA es que varias tienen incorporado un sesgo de sycophancy o adulación. Esto significa que “siempre quieren darte la razón, por lo que refuerzan con facilidad tus ideas”, describió Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y nos ha prestado sus superpoderes. 

Esto nos puede meter en burbujas de información, donde sólo reafirmamos nuestras propias ideas y perspectiva, lo que puede generar un sesgo informacional, reforzar creencias y aislarnos de otros puntos de vista

El sesgo de adulación también puede suponer riesgos para las personas que usan chatbots de IA para terapia (el principal uso que se está dando actualmente a esta tecnología, según un análisis publicado en Harvard Business Review). A pesar de que puede hacernos sentir bien que una IA nos de la razón y reafirme, junto a otros factores como diagnósticos erróneos, puede retrasar que la persona mejore. 

Sesgo de equidistancia: los chatbots pueden evitar posicionarse sobre temas controvertidos, aunque haya evidencia suficiente para defender una posición

También puede pasar que un chatbot de IA evite posicionarse si le hacemos una pregunta controvertida, incluso si hay suficiente evidencia para defender una posición sobre otra. Esto se conoce como sesgo de equidistancia artificial, neutralidad forzada o falso balance y puede resultar en respuestas sesgadas, por ejemplo, equiparando argumentos que no tienen la misma validez científica detrás o no considerando matices importantes para el debate.

Por ejemplo, si preguntamos a un chatbot de IA si el cambio climático es real, nos contestarán con rotundidad que sí y que hay evidencia científica que lo demuestra. Sin embargo, si les preguntamos “¿El ecologismo ha ido demasiado lejos?”, Domínguez afirma que nos contestarán “de forma más neutra, mostrando las dos caras de un debate”.

En relación a la desinformación, Domínguez advierte de que “puede ser peligroso cuando hay evidencia científica sobre ciertos temas que popularmente no son aceptados”. También afirma que puede suponer riesgos “en combinación con la impresión popular de que son máquinas neutras, objetivas y superinteligentes”. 

Sesgo de automatización: los usuarios pueden confiar en exceso en las respuestas de los algoritmos, sean acertadas o no, lo que puede provocar desinformación

Los usuarios también podemos tener sesgos hacia la tecnología, como el sesgo de automatización, que se refiere a la tendencia que tenemos las personas de confiar en exceso en las recomendaciones de los algoritmos, independientemente de si estas son acertadas o no

Durante la charla ‘Algoritmos paternalistas. Cómo afectan a nuestra manera de contar las cosas’ de la jornada ‘Género y comunicación de la ciencia 2025’, Agudo detalló que es un sesgo muy estudiado y prevalente hace décadas. Según la experta, es especialmente relevante en procesos automatizados de alto riesgo, supervisados por humanos, “ya que está en cuestión si el humano va a ser realmente capaz de supervisar a la IA o si va a aceptar de manera ciega las recomendaciones o sugerencias que le ofrezca”. 

Las personas que se fían a ciegas del diagnóstico médico de un chatbot de IA pueden estar sufriendo este sesgo. No considerar que estos sistemas cometen errores, no son fuentes fiables de información y pueden equivocarse en sus “diagnósticos”, puede suponer riesgos para la salud de los usuarios. 

Hay que tener presente que los grandes modelos de lenguaje (LLM, por sus siglas en inglés) funcionan prediciendo la siguiente palabra plausible según el prompt y sus datos de entrenamiento, y pueden no acertar. Si malentienden la instrucción o no tienen información suficiente, pueden sufrir ‘alucinaciones’ y dar respuestas incorrectas, inexactas o sesgadas.

Un ejemplo es la historia viral de un australiano que no pudo entrar a Chile ya que se basó en una respuesta equivocada de ChatGPT que le aseguró que no necesitaba una visa para el viaje (algo que no es correcto). Otro usuario hizo la misma pregunta a Google y la ‘vista creada con IA’, que genera un resumen con IA para responder a las búsquedas, cometió el mismo error. 

También puede pasar que las respuestas de un modelo de IA sean manipuladas intencionalmente, como sucede con el ‘LLM grooming, una técnica que consiste en saturar internet con desinformación para colarse en los datos de entrenamiento de los chatbots de IA y que estos reproduzcan desinformación a los usuarios. 

Deshacerse de los sesgos es complicado, pero podemos evitarlos con diversidad en los equipos, datos y auditorías, junto al pensamiento crítico de los usuarios y legislación

Deshacerse de los sesgos en los modelos de IA es complejo, pero hay acciones que se pueden tomar para combatirlos. Fomentar la diversidad para construir proyectos de IA más justos e igualitarios es una de las claves. “La inclusión de una mayor representación de los sectores vulnerables de la población (por ejemplo, las mujeres y las personas negras) mejoraría la detección de posibles sesgos y podría evitar parte de la discriminación algorítmica”, indican Matute y Martínez en otro artículo de The Conversation. 

Trabajar en la explicabilidad de la IA, el conjunto de métodos que permite comprender cómo funciona una inteligencia artificial, también puede ayudar a identificar y resolver los sesgos presentes en algunos sistemas. Además, tener en cuenta los diversos sesgos y cómo pueden cruzarse es importante a la hora de auditar estos modelos: “Si los modelos sólo se auditan según una categoría, se corre el riesgo de invisibilizar estos efectos combinados”, sostiene Fernández. 

La experta también recuerda que, como usuarios, es crucial no asumir que las respuestas generadas por una IA son neutrales o correctas. “Es importante prestar atención al lenguaje utilizado y, si se detectan sesgos, cuestionar y contrastar la información con otras fuentes. Estos modelos deben usarse siempre como herramienta de apoyo, pero nunca como única fuente de decisión”. 

Agudo insiste en lo mismo, recalcando la importancia del pensamiento crítico. “A veces damos por buenos resultados generados con IA sin pararnos a reflexionar, solo porque parecen correctos, y que si revisamos en profundidad no pasarían nuestro propio filtro de calidad”, señala. 

Fernández también sugiere que, si usamos estos sistemas para crear contenidos, podemos “fomentar activamente la representación de distintas identidades y roles no estereotipados a través de los prompts”. Si detectamos sesgos, sugiere reportarlos a la plataforma. En el caso de ChatGPT, esto se puede hacer pulsando el pulgar hacia abajo que aparece bajo el texto generado para reportar una respuesta incorrecta y aportar comentarios adicionales.

La Ley Europea de Inteligencia Artificial, que regula los sistemas de IA que operan en los Estados miembros, aborda distintos riesgos relacionados con el desarrollo y uso de esta tecnología, como los sesgos. Una de las medidas es que los sistemas de alto riesgo (aquellos con gran potencial de dañar los derechos fundamentales, a menos que se apliquen salvaguardas, como los de identificación biométrica remota o de reconocimiento de emociones) deben examinar los datos de entrenamiento atendiendo a posibles sesgos y tomar medidas adecuadas para detectar, prevenir y mitigar posibles sesgos (artículos 10). 

La regulación de estos sistemas comenzará a ser obligatoria el 2 de agosto de 2026. El incumplimiento de las obligaciones de los proveedores implica multas de hasta 15 millones de euros o, si el infractor es una empresa, de hasta el 3% de su facturación anual mundial.

En este artículo han colaborado con sus superpoderes la maldita Lorena Fernández, experta en perspectiva de género en tecnología, e Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA.

Lorena Fernández forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.