MENÚ
MALDITA TECNOLOGÍA

Estimada inteligencia artificial, ¿podrías explicarme por qué no me han asignado el trasplante?

Publicado
Comparte

Este artículo se ha publicado originalmente en The Conversation y ha sido escrito por Jon Rueda Etxebarria, La Caixa INPhINIT Fellow y doctorando en filosofía en la Universidad de Granada.

Consideremos el siguiente escenario: dos pacientes con hepatopatía crónica (una enfermedad severa del hígado) esperan un trasplante. Ambos pacientes están en un estado tan grave que, si no reciben un órgano sano pronto, sus posibilidades de supervivencia se extinguirán paulatinamente.

Afortunadamente, ha llegado un hígado a la unidad de trasplantes. Este órgano es compatible con los dos pacientes y ambos se pueden beneficiar considerablemente del trasplante hepático. A quien lo reciba se le podría pronosticar, en principio, una supervivencia larga con buena calidad de vida.

Desafortunadamente, de este hígado solo hay un lóbulo trasplantable. Esto quiere decir que uno de los candidatos se quedará sin trasplante. En bioética y salud pública, el término racionamiento se refiere precisamente al hecho de asignar un recurso a un beneficiario mientras se le niega a otra persona que también lo necesita.

En un caso como este, el racionamiento se vuelve un dilema trágico, esto es, una situación éticamente conflictiva en la que está en juego la vida de personas. ¿A quién de los dos pacientes se le debe asignar el hígado? ¿Y en base a qué características?

Modelos para elegir al receptor

En la mayoría de países, la distribución de hígados trasplantables se realiza considerando principalmente una predicción de mortalidad a corto plazo en la lista de espera. Tienen prioridad quienes tienen mayor probabilidad de morir esperando el trasplante.

La medición del riesgo de mortalidad se basa en una regresión lineal (una fórmula matemática muy utilizada en estadística) con tres variables: la creatinina, la bilirrubina y el International Normalized Ratio (que estandariza los tiempos de la protrombina). Estos tres biomarcadores son indicadores normalmente utilizados en diversas analíticas en salud.

La interacción de esos tres valores compone el sistema de puntuación denominado modelo de enfermedad hepática terminal, llamado en inglés escala MELD (Model for End-stage Liver Disease). Esta escala mide el estado de gravedad de la enfermedad hepática crónica.

Sin embargo, algunos desafíos han generado la necesidad de repensar este sistema. Un factor importante es la disponibilidad creciente de órganos subóptimos. Estos órganos son de menor calidad porque provienen de donantes con peor estado de salud. Si trasplantamos un órgano deteriorado a un paciente sano, esta persona puede necesitar más adelante otro trasplante. En cambio, trasplantar un hígado a un paciente con poca esperanza de vida puede suponer que se malogren los beneficios mayores que podría haber generado ese órgano en otra persona.

La inteligencia artificial entra en escena

Para superar dichas ineficiencias, se debe tener en cuenta las características no solo del destinatario, como hacía la predicción de mortalidad en el sistema anterior, sino también del donante. Así, Reino Unido ha implantado el Transplant Benefit Score (TBS) –puntuación del beneficio del trasplante–, que tiene en cuenta 7 variables del donante y 21 del receptor del órgano. El objetivo es maximizar la duración del hígado trasplantado.

La interacción de estas 28 variables del TBS es más compleja que las tres del MELD. Esto ha impulsado investigaciones para desarrollar modelos de inteligencia artificial (IA) aplicables a este sistema. Por ejemplo, se han utilizado redes neuronales para este propósito. Las redes neuronales son algoritmos avanzados de IA basados en aprendizaje automático que entrenan en capas interconectadas de datos.

El uso de redes neuronales ha conseguido predecir el riesgo de mortalidad tras trasplante a 90 días con mayor precisión que modelos estadísticos previos. Las herramientas de IA son también más eficaces para pronosticar de manera precisa la supervivencia del injerto (esto es, del órgano trasplantado) en cada receptor. Todo ello permite dirigir el recurso escaso a la persona que aparentemente se va a beneficiar más de él.

Algoritmos opacos

Sin embargo, estos modelos basados en IA –que todavía requieren mayor investigación– tienen un problema. Como las redes neuronales funcionan autónomamente, no permiten conocer el peso que ha tenido cada variable en la configuración del resultado final. Es decir, estos sistemas de IA producen recomendaciones que se han gestado en un proceso algorítmico cuyos mecanismos causales ni las personas expertas son capaces de explicar. Esta opacidad y falta de transparencia se suele denominar la “caja negra” de la IA.

Dadas sus múltiples repercusiones, la inexplicabilidad de la IA es un tema candente discutido en disciplinas como las ciencias computacionales, la medicina, la administración empresarial, el derecho y la filosofía. ¿Cómo se debe valorar el uso de algoritmos inexplicables en la IA médica?

Hay quienes han defendido que la precisión –y no la explicabilidad– debe ser el valor fundamental de la inteligencia artificial en medicina. Argumentan que el conocimiento médico es a menudo incompleto y que está atravesado por múltiples incertidumbres. De hecho, la inexplicabilidad ya existe con algunos tratamientos médicos efectivos como, por ejemplo, la prescripción del litio en enfermedades psiquiátricas. Es decir, mientras los tratamientos sean exitosos no nos debe preocupar el no poder explicar cuáles son las causas subyacentes de estos beneficios.

Sin embargo, la aspiración de que la IA sea lo más precisa posible, y siempre que esto genere inexplicabilidad, se vuelve especialmente problemática cuando se quiere utilizar la IA para apoyar la priorización de recursos sanitarios escasos.

Problemas éticos

En una investigación reciente (en proceso de revisión) que he tenido el placer de liderar, hemos analizado cómo la falta de explicabilidad incumple ideales éticos importantes.

La inexplicabilidad entorpece la atribución de responsabilidades en caso de errores, dificulta la inspección de sesgos (problemáticos tanto a nivel clínico como ético) y pone en jaque la transparencia y confianza que son necesarias para la aceptación pública de estas tecnologías.

Como estos criterios son fundamentales en la distribución equitativa de recursos sanitarios escasos, debemos favorecer la implantación de algoritmos de IA cuyo funcionamiento sea explicable. La precisión predictiva es, sin duda, también importante. Pero debemos incentivar los desarrollos y aplicaciones de algoritmos precisos que sean explicables.

Volviendo al caso inicial, supongamos que la distribución del hígado fuese decidida por la recomendación de la inteligencia artificial. ¿Qué haría usted si fuese la persona perjudicada? Si fuese mi caso, no dudaría en pedirle explicaciones.

The Conversation
Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.