Maldita Tecnología

Cuando la IA pone en peligro tu salud: sesgos en sistemas médicos que pueden discriminar a mujeres, personas racializadas y LGBTIQ+

Publicado el
Tiempo de lectura: 11 minutos
Compartir:
Claves:
  • Los sistemas de IA que se usan en el sector de la salud deben pasar por procesos que certifiquen su seguridad. Sin embargo, diversos estudios revelan que pueden presentar sesgos que discriminan a ciertas personas 
  • Estos sesgos, que se ‘heredan’ de sus desarrolladores o datos de entrenamiento, pueden provocar que mujeres, personas racializadas y personas LGBTIQ+ reciban una peor atención médica 
  • Sus respuestas sesgadas pueden derivar en diagnósticos y tratamientos equivocados con consecuencias graves en la salud de los pacientes 

Desde diagnósticos que no llegan, hasta tratamientos equivocados: los sistemas de IA con fines médicos pueden tener sesgos que influyen negativamente en la atención que reciben personas históricamente discriminadas. Así lo advierten diversos estudios. 

Si estos sistemas de IA se usan sin supervisión humana y se deja libre albedrío a sus sesgos, el cáncer de piel podría no ser detectado a tiempo en una persona racializada, poniendo en riesgo sus posibilidades de mejora; una mujer podría ser enviada a casa para automedicarse, aunque padezca una enfermedad grave; y una persona trans podría recibir una respuesta inexacta sobre su salud

Fomentar la diversidad en los equipos, trabajar en la explicabilidad de la IA y no asumir que las respuestas generadas por una IA son neutrales o correctas es clave para evitarlo, según expertos en inteligencia artificial. 

Los sistemas de IA con fines médicos deben pasar un proceso de certificación, pero se pueden colar sesgos en su desarrollo y datos de entrenamiento que condicionen sus respuestas

En el sector de la salud, los sistemas de IA pueden cumplir diversas funciones, desde el seguimiento de enfermedades como la esclerosis múltiple, hasta rellenar formularios clínicos con ayuda de agentes de IA. A diferencia de los chatbots de uso general, están diseñados para asistir a los profesionales del sector sanitario, por lo que deben pasar por un proceso de certificación que autorice su uso clínico. Así lo explica Javier Ferreiro, médico, programador y maldito: “Existen certificaciones de seguridad a nivel europeo que garantizan en gran medida el correcto funcionamiento de estas tecnologías. Aún así, se trata de un campo emergente, donde siempre puede haber margen de error”.

Un asunto pendiente es la presencia de sesgos en estos sistemas: esos errores que cometemos a la hora de razonar, evaluar o recordar y que influyen en las decisiones que tomamos pueden transmitirse a un sistema de IA y que este los extienda a sus resultados. “Principalmente se cuelan en los datos de entrenamiento, que reflejan y amplifican las desigualdades, estereotipos y discriminaciones existentes en la sociedad”, explica Lorena Fernández, experta en perspectiva de género en tecnología y maldita. El diseño del algoritmo también juega un papel: “Si el sistema optimiza únicamente por precisión global, sin considerar la equidad entre grupos, es probable que favorezca a los grupos históricamente privilegiados”. 

Mujeres, personas racializadas y personas LGBTIQ+: blancos habituales de los sesgos en los sistemas de IA con fines médicos

Las mujeres suelen ser víctimas de estos sesgos: una investigación del 2025 realizada por la Clínica Jameel del Instituto de Tecnología de Massachusetts (MIT) reveló que algunos modelos de IA (específicamente GPT-4 de OpenAI, Llama 3 de Meta y Palmyra-Med, un LLM enfocado en salud) recomendaban menos atención médica (por ejemplo, menos seguimientos, intervenciones y exámenes) a las mujeres que a los hombres. También les sugerían automedicarse en casa en lugar de buscar ayuda

La misma investigación advirtió de que estos modelos tenían más probabilidades de recomendar que los pacientes no buscaran atención médica cuando los mensajes contenían pronombres de género neutro (que suelen usar las personas no binarias). Otro estudio de 2025 de la Universidad de Stanford concluyó que los modelos de IA generaban más respuestas “inapropiadas” (inexactas o incompletas) cuando las preguntas sobre salud mencionaban identidades LGBTIQ+. “El sesgo anti-LGBTIQ+ sigue siendo poco estudiado a pesar de las disparidades documentadas en la atención médica que afectan a estas poblaciones”, señalan los investigadores. 

También están los sesgos racistas. En España el Servicio Vasco de Salud tiene planes para incorporar a sus centros y hospitales Quantus Skin, un modelo basado en redes neuronales diseñado para diagnosticar el riesgo de cáncer de piel, incluido el melanoma. Sin embargo, Civio, organización independiente y sin ánimo de lucro, advierte en un análisis de que el modelo ha aprendido a reconocer el cáncer de piel casi exclusivamente en personas blancas, por lo que “es probable que fallen más en pieles más oscuras”.

Riesgos que también están presentes en la atención de salud mental: una investigación del 2024 del MIT, la Universidad de California y la Universidad de Nueva York, que buscaba evaluar la equidad y la calidad de la atención brindada por modelos implementados en entornos de salud mental, reveló que estos daban respuestas menos compasivas hacia las personas negras y asiáticas que buscaban apoyo. 

A esto se suma que los distintos sesgos pueden cruzarse y afectar más a ciertos grupos, como a las mujeres racializadas. Por ejemplo, en Canadá, investigadores de la Universidad de Toronto y el MIT descubrieron en 2021 que un algoritmo para detectar anormalidades en radiografías de pecho fallaba más con las mujeres hispanas.

Estos sesgos pueden derivar en diagnósticos y tratamientos equivocados con consecuencias graves en la salud de los pacientes 

Los investigadores advierten que estas herramientas de IA pueden reforzar patrones de tratamiento insuficientes que ya existen en el sector de la salud. “Si los datos de entrenamiento no representan correctamente la variabilidad poblacional, la IA tiende a reforzar el sesgo, lo que puede conducir a desenlaces fatales, diagnósticos erróneos y falta de generalización”, advierten investigadores de la Universidad de Berna

Ferreiro precisa que los errores producidos por los sesgos pueden derivar tanto en diagnósticos como tratamientos equivocados que pueden tener consecuencias importantes en el bienestar de las personas. “[En los diagnósticos] Nos podemos encontrar con falsos positivos y falsos negativos donde las consecuencias sí podrían ser mucho más graves”, advierte el experto. 

Otro factor de riesgo sería el sesgo de automatización, que lleva a las personas a fiarse en exceso de las respuestas de una IA, independientemente de si estas son acertadas o no. Iris Domínguez, que investiga sobre inteligencia artificial y nos ha prestado sus superpoderes, advierte que “esto puede llevar a situaciones donde el personal sanitario ignore posibles diagnósticos, o no informe a los pacientes correctamente”.

Para combatirlo, señala que es crucial “reconocer los problemas y limitaciones de los sistemas de IA, y mantener ese conocimiento actualizado, es la única forma de evitar el sesgo de automatización y de identificar cuándo un sistema puede no responder correctamente”. En general, deshacerse de los sesgos es complicado, pero se puede minimizar su impacto con diversidad en los equipos, datos y auditorías, junto al pensamiento crítico de los usuarios y legislación.

En ese sentido, la Unión Europea, la Ley de Inteligencia Artificial o AI Act regula los sistemas de IA de alto riesgo, como los programas informáticos basados en IA con fines médicos. Desde el 2 de agosto de 2026, deberán cumplir con una serie de requisitos, como sistemas de reducción del riesgo, conjuntos de datos de alta calidad, información clara al usuario y supervisión humana.

En este artículo han colaborado con sus superpoderes el maldito Javier Ferreiro, médico y programador, Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y Lorena Fernández, experta en perspectiva de género en tecnología. 

Lorena Fernández forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.