menu MENÚ
MALDITA TECNOLOGÍA

“ChatGPT me detectó cáncer”: cuidado, los chatbots de IA pueden dar diagnósticos equivocados y no deben sustituir la labor de los médicos

Publicado
Claves
  • En sitios web y redes sociales circulan testimonios de personas que dicen haber recibido diagnósticos de cáncer de chatbots de IA, como ChatGPT, antes de que los médicos se lo hubieran detectado
  • Hay chatbots de IA que pueden apoyar la labor de los médicos, pero no sustituirlos: usarlos como si fueran un médico puede suponer riesgos para la salud y derivar en tratamientos inadecuados, ya que pueden dar diagnósticos equivocados (no son el equivalente a un médico)
  • Compartir datos sanitarios, como imágenes y documentos médicos, con chatbots de IA también puede implicar riesgos para nuestra privacidad si la empresa sufre un ciberataque o se usan para entrenar sus modelos 
Comparte
Etiquetas

“Pedí a ChatGPT que me leyese la mano y me detectó cáncer de piel”, “ChatGPT diagnostica cáncer a una mujer un año antes de los médicos”, “Una mujer dice que ChatGPT le salvó la vida al ayudarle a detectar un cáncer que los médicos no detectaron”. Estas son sólo algunas de las afirmaciones que circulan en webs y redes sociales, que dicen recoger las experiencias de usuarios que han recibido diagnósticos médicos de la IA de OpenAI. Pero esto no solo está ocurriendo aquí: Elon Musk aseguró que su chatbot Grok, puede dar diagnósticos “mejor que lo que te dicen los médicos” y en redes sociales hay testimonios de personas que también usan Claude y otros chatbots de IA con estos fines. 

Confiar en estos chatbots de IA para que nos diagnostiquen no es una buena idea: sus resultados se basan en probabilidades, los datos de entrenamiento pueden no ser fiables y tampoco pueden hacer el análisis integral que hace un médico. Todo esto puede derivar en diagnósticos equivocados, tratamientos inadecuados y riesgos para la salud. Los expertos en IA y medicina consultados por Maldita.es afirman que pueden apoyar la labor de los médicos, pero no sustituirlos, por lo que es crucial siempre consultar a un profesional de la salud. Por otro lado, compartir datos sanitarios con una IA puede suponer riesgos para nuestra privacidad si la empresa sufre una filtración o estos datos se usan para entrenar los modelos.

Una IA no puede sustituir a un médico ni dar un diagnóstico fiable: puede cometer errores, entrenarse con datos no fiables y recomendar tratamientos inadecuados 

Un chatbot como ChatGPT, Grok o Claude no puede reemplazar la labor de los médicos: es sólo un modelo de IA que une datos en base a probabilidades. Las respuestas que genera se basan en los datos y contenidos con los que ha sido entrenado y “hay bastantes que no son ciertos”, advierte Javier Ferrero, médico, programador y maldito que nos ha prestado sus superpoderes. Un chatbot no puede realizar un análisis médico necesario ni maneja la información suficiente para poder hacer un diagnóstico, por lo que no tiene en cuenta otros factores como patologías o nuestro contexto, algo que sí hace un médico. 

En ese sentido, no es más fiable que buscar nuestros síntomas en Google (algo que los expertos también recomiendan hacer con cautela). Además, los chatbots de IA no son fuentes fiables de información y pueden cometer errores. “Un modelo mal entrenado produce resultados erróneos con importantes consecuencias para la salud. Yo no recomiendo el uso de esta herramienta como sustituto de un especialista médico”, afirma Roberto Sánchez, médico experto en protección radiológica y maldito. 

Los casos en los que chatbots de IA han dado diagnósticos que finalmente se han confirmado son resultado del sistema probabilístico que los hace funcionar y de la información con la que se han entrenado (que, en algunos casos, puede ser válida). Un ejemplo es la historia de una joven de 27 años que, después de que ella y su médico atribuyeran sus síntomas al luto de su padre, preguntó a ChatGPT por los mismos y la IA le advirtió que podría estar sufriendo de cáncer de sangre. Más de un año después volvió al doctor y fue oficialmente diagnosticada con Enfermedad de Hodgkin, según explicó al DailyMail

Pero los chatbots de IA no siempre aciertan. Ferrero recuerda que es importante “evaluar los porcentajes de casos dudosos o falsos y las consecuencias que pueden tener para los pacientes”. El médico advierte de que un usuario puede aplicar “tratamientos inadecuados” si una IA comete un error: “Creo que es un porcentaje bajo, pero claro, si hablamos de salud, las malas decisiones siempre son importantes”, sentencia. 

Los sistemas de IA también pueden darnos respuestas que queremos escuchar. No deben sustituir a un médico, pero podrían apoyarle en algunas tareas

Los sistemas de IA también pueden presentar un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar (igual que puede suceder si lo usamos como psicólogo) y sufrir ‘alucinaciones’ y crear resultados inexactos, incorrectos o sesgados que podrían llevar a recomendar cosas que no sean buenas para la salud de las personas. 

No nos podemos jugar nuestra salud pidiendo diagnóstico a un sistema que todavía no es robusto ni fiable”, advierte Verónica Bolón, profesora e investigadora en Inteligencia Artificial de la Universidade de A Coruña y maldita. La experta agrega que, incluso si el desarrollo de estos sistemas avanza, “no deberían sustituir a un médico sino solamente apoyarlo y/o liberarlo de tareas más rutinarias”.

Sobre cómo pueden ayudar al ejercicio de la medicina, Hans Eguia, médico y profesor colaborador en el Máster de Salud Digital en la Universitat Oberta de Catalunya, explica a Maldita.es que los chatbots de IA como ChatGPT pueden ayudar a los pacientes a entender algunos tratamientos o aclarar diagnósticos, pero para que sea lo más certero posible debe ser un profesional sanitario el que haga la pregunta. “Una pregunta sobre un diagnóstico hecha por un paciente no tiene la suficiente cantidad de información para que la respuesta sea la adecuada o correcta”, afirma. 

Los expertos recomiendan no compartir datos sanitarios con estos chatbots de IA, ya que pueden usarse para entrenarlos y filtrarse si la empresa sufre un ciberataque 

Usar chatbots de IA con fines médicos también supone, en ocasiones, compartir datos sanitarios, como documentos o imágenes médicas. Estos datos sensibles y especialmente protegidos por el Reglamento General de Protección de Datos (RGPD) pueden usarse para entrenar estos modelos y filtrarse si la empresa sufre un ciberataque, lo que supone riesgos para nuestra privacidad. 

La recomendación de los expertos en ciberseguridad y protección de datos consultados por Maldita.es es no compartir nuestra información personal con estos chatbots de IA. El RGPD y la Ley Europea de Inteligencia Artificial les exigen limitar el tratamiento de ellos y proteger la intimidad de los usuarios, pero las empresas detrás de estos modelos no siempre dejan claro cómo almacenan o procesan esta información. La solución tampoco es usar chats temporales o eliminarlos; tampoco anonimizar nuestros documentos, ya que puede fallar.

Si ya hemos compartido datos sanitarios con estos chatbots, nuestras opciones son limitadas. Samuel Parra, abogado experto en protección de datos, aclara a Maldita.es que podemos ejercer nuestro derecho a la supresión (recogido en el artículo 17 del RGPD) para solicitar la eliminación de la información sanitaria compartida. Sin embargo, el abogado incide en que este proceso es complicado en el caso de los sistemas de IA. “Por un lado, no podemos tener la certeza de que efectivamente hayan eliminado esa información, y, por otro, es complicado que una información sea ‘suprimida’ como tal en un sistema de IA”, concluye. 

En este artículo han colaborado con sus superpoderes los malditos Verónica Bolón, profesora e investigadora en Inteligencia Artificial, Javier Ferrero, médico y programador, y Roberto Sánchez, médico experto en protección radiológica. 

Verónica Bolón forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.