Maldita Ciencia
Maldita Tecnología

"ChatGPT me detectó cáncer": cuidado, los chatbots de IA pueden dar diagnósticos equivocados y no deben sustituir la labor de los médicos

Publicado el
Tiempo de lectura: 11 minutos
Las claves
  • En sitios web y redes sociales circulan testimonios de personas que dicen haber recibido diagnósticos de cáncer de chatbots de IA, como ChatGPT, antes de que los médicos se lo hubieran detectado
  • Hay chatbots de IA que pueden apoyar la labor de los médicos, pero no sustituirlos: usarlos como si fueran un médico puede suponer riesgos para la salud y derivar en tratamientos inadecuados, ya que pueden dar diagnósticos equivocados (no son el equivalente a un médico)
  • Compartir datos sanitarios, como imágenes y documentos médicos, con chatbots de IA también puede implicar riesgos para nuestra privacidad si la empresa sufre un ciberataque o se usan para entrenar sus modelos 
5/9/25
LO QUE CIRCULA

«ChatGPT diagnostica cáncer a una mujer un año antes que los médicos»

https://www.infobae.com/espana/2025/05/06/chatgpt-diagnostica-cancer-a-una-mujer-un-ano-antes-que-los-medicos/ ChatGPT diagnostica cáncer a una mujer un año antes que los médicos A pesar de que los médicos atribuían sus síntomas al duelo por la pérdida reciente de su padre o a la ansiedad, la inteligencia artificial acertó el diagnóstico Marly Garnreiter fue diagnosticada de cáncer por ChatGPT un año antes que los médicos. (Imagen: Redes Sociales) En enero de 2024, Marly Garnreiter, una joven de 27 años residente de París, comenzó a experimentar síntomas extraños que inicialmente atribuyó al dolor por haber perdido a su padre un año antes, Víctor, de 58 años de edad, a causa de cáncer de colon. Sudores nocturnos, picazón en la piel, fatiga constante y dolor en el pecho fueron algunos de los síntomas que comenzaron a preocuparle. Sin embargo, lo que parecía ser una reacción natural al duelo resultó ser algo mucho más grave: linfoma de Hodgkin, un tipo de cáncer en los glóbulos blancos. Al principio, los médicos no encontraron nada en los análisis y su médico de cabecera sugirió que los síntomas podrían estar relacionados con la ansiedad. Marly, aunque aceptó esta explicación, continuaba nerviosa por sus dolores. No hay médico para Emanuele: la indignación de unos padres sin un doctor para su hijo con discapacidad y el último les dijo que estaba siendo “demasiado demandante” Fue entonces cuando, por curiosidad, acudió a la inteligencia artificial e introdujo sus síntomas en ChatGPT. Efectivamente, la IA indicó que podría estar sufriendo un cáncer de sangre. “Aunque recibí la sugerencia con escepticismo, algo me hizo seguir buscando respuestas”, recordó Marly al Daily Mail. Con el paso del tiempo, los síntomas seguían persistiendo; la joven comenzó a perder peso, a sentirse más fatigada y a experimentar un dolor torácico cada vez más intenso. “Al principio, pensé que era solo el duelo, pero cuando los síntomas empeoraron, supe que algo no estaba bien”, explicó. Una mujer es desheredada por su madre y después su hijo pide que se le declare “indigna” para recibir la herencia de su padre por maltrato psicológico: la Justicia lo rechaza Un año después de sus primeras consultas, Marly regresó al médico, quien le realizó una radiografía. La imagen reveló una masa en su pulmón izquierdo, lo que llevó a los especialistas a realizar pruebas adicionales. Finalmente, en febrero de 2025, los resultados confirmaron el diagnóstico de ChatGPT: linfoma de Hodgkin. Afortunadamente, se trata de un tipo de cáncer con una tasa de supervivencia del 81% si se detecta y se trata en los primeros cinco años. El diagnóstico de ChatGPT se El diagnóstico de ChatGPT se confirmó un año después. (Imagen: Redes Sociales) Otro revés para la familia El diagnóstico fue un duro golpe para Marly, quien ya había vivido el sufrimiento de ver a un ser querido morir a causa de un cáncer. “Sentí mucho enfado y frustración. No quería que mi familia pasara por esto otra vez. La injusticia parecía demasiado grande”, confesó la joven. Pese al impacto emocional, Marly decidió enfrentarse a la enfermedad con esperanza. Antes de comenzar su tratamiento de quimioterapia, pudo preservar su fertilidad. El procedimiento comenzó en marzo de 2025. “Es fundamental escuchar a nuestro cuerpo y estar en sintonía con nuestro bienestar”, reflexionó Marly. “A veces tendemos a perder la conexión con nuestro ser interior, pero es crucial buscar ayuda profesional cuando sea necesario”, añadió. El papel de la IA en la medicina La inteligencia artificial está cambiando vertiginosamente muchos de los sectores, como la educación o la sanidad. En este sentido, las ventajas principales son la precisión en los diagnósticos, la personalización de los tratamientos, la optimización de la gestión en los hospitales y el fomento de la investigación. No obstante, la IA no debe nunca sustituir al médico, aunque su capacidad para analizar síntomas y sugerir posibles diagnósticos puede ser una herramienta útil para sanitarios y pacientes. Sin embargo, los expertos advierten que estas tecnologías deben ser utilizadas con precaución y siempre deben complementarse con el juicio de profesionales de la salud.

0 reportes
Origen:
Categorías
Salud
Temas
cáncer
enfermedades
detecciones
diagnóstico
doctores
ChatGPT

“Pedí a ChatGPT que me leyese la mano y me detectó cáncer de piel”, “ChatGPT diagnostica cáncer a una mujer un año antes de los médicos”, “Una mujer dice que ChatGPT le salvó la vida al ayudarle a detectar un cáncer que los médicos no detectaron”. Estas son sólo algunas de las afirmaciones que circulan en webs y redes sociales, que dicen recoger las experiencias de usuarios que han recibido diagnósticos médicos de la IA de OpenAI. Pero esto no solo está ocurriendo aquí: Elon Musk aseguró que su chatbot Grok, puede dar diagnósticos “mejor que lo que te dicen los médicos” y en redes sociales hay testimonios de personas que también usan Claude y otros chatbots de IA con estos fines. 

Confiar en estos chatbots de IA para que nos diagnostiquen no es una buena idea: sus resultados se basan en probabilidades, los datos de entrenamiento pueden no ser fiables y tampoco pueden hacer el análisis integral que hace un médico. Todo esto puede derivar en diagnósticos equivocados, tratamientos inadecuados y riesgos para la salud. Los expertos en IA y medicina consultados por Maldita.es afirman que pueden apoyar la labor de los médicos, pero no sustituirlos, por lo que es crucial siempre consultar a un profesional de la salud. Por otro lado, compartir datos sanitarios con una IA puede suponer riesgos para nuestra privacidad si la empresa sufre una filtración o estos datos se usan para entrenar los modelos.

Una IA no puede sustituir a un médico ni dar un diagnóstico fiable: puede cometer errores, entrenarse con datos no fiables y recomendar tratamientos inadecuados 

Un chatbot como ChatGPT, Grok o Claude no puede reemplazar la labor de los médicos: es sólo un modelo de IA que une datos en base a probabilidades. Las respuestas que genera se basan en los datos y contenidos con los que ha sido entrenado y “hay bastantes que no son ciertos”, advierte Javier Ferrero, médico, programador y maldito que nos ha prestado sus superpoderes. Un chatbot no puede realizar un análisis médico necesario ni maneja la información suficiente para poder hacer un diagnóstico, por lo que no tiene en cuenta otros factores como patologías o nuestro contexto, algo que sí hace un médico. 

En ese sentido, no es más fiable que buscar nuestros síntomas en Google (algo que los expertos también recomiendan hacer con cautela). Además, los chatbots de IA no son fuentes fiables de información y pueden cometer errores. “Un modelo mal entrenado produce resultados erróneos con importantes consecuencias para la salud. Yo no recomiendo el uso de esta herramienta como sustituto de un especialista médico”, afirma Roberto Sánchez, médico experto en protección radiológica y maldito. 

Los casos en los que chatbots de IA han dado diagnósticos que finalmente se han confirmado son resultado del sistema probabilístico que los hace funcionar y de la información con la que se han entrenado (que, en algunos casos, puede ser válida). Un ejemplo es la historia de una joven de 27 años que, después de que ella y su médico atribuyeran sus síntomas al luto de su padre, preguntó a ChatGPT por los mismos y la IA le advirtió que podría estar sufriendo de cáncer de sangre. Más de un año después volvió al doctor y fue oficialmente diagnosticada con Enfermedad de Hodgkin, según explicó al DailyMail

Pero los chatbots de IA no siempre aciertan. Ferrero recuerda que es importante “evaluar los porcentajes de casos dudosos o falsos y las consecuencias que pueden tener para los pacientes”. El médico advierte de que un usuario puede aplicar “tratamientos inadecuados” si una IA comete un error: “Creo que es un porcentaje bajo, pero claro, si hablamos de salud, las malas decisiones siempre son importantes”, sentencia. 

Los sistemas de IA también pueden darnos respuestas que queremos escuchar. No deben sustituir a un médico, pero podrían apoyarle en algunas tareas

Los sistemas de IA también pueden presentar un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar (igual que puede suceder si lo usamos como psicólogo) y sufrir ‘alucinaciones’ y crear resultados inexactos, incorrectos o sesgados que podrían llevar a recomendar cosas que no sean buenas para la salud de las personas. 

No nos podemos jugar nuestra salud pidiendo diagnóstico a un sistema que todavía no es robusto ni fiable”, advierte Verónica Bolón, profesora e investigadora en Inteligencia Artificial de la Universidade de A Coruña y maldita. La experta agrega que, incluso si el desarrollo de estos sistemas avanza, “no deberían sustituir a un médico sino solamente apoyarlo y/o liberarlo de tareas más rutinarias”.

Sobre cómo pueden ayudar al ejercicio de la medicina, Hans Eguia, médico y profesor colaborador en el Máster de Salud Digital en la Universitat Oberta de Catalunya, explica a Maldita.es que los chatbots de IA como ChatGPT pueden ayudar a los pacientes a entender algunos tratamientos o aclarar diagnósticos, pero para que sea lo más certero posible debe ser un profesional sanitario el que haga la pregunta. “Una pregunta sobre un diagnóstico hecha por un paciente no tiene la suficiente cantidad de información para que la respuesta sea la adecuada o correcta”, afirma. 

Los expertos recomiendan no compartir datos sanitarios con estos chatbots de IA, ya que pueden usarse para entrenarlos y filtrarse si la empresa sufre un ciberataque 

Usar chatbots de IA con fines médicos también supone, en ocasiones, compartir datos sanitarios, como documentos o imágenes médicas. Estos datos sensibles y especialmente protegidos por el Reglamento General de Protección de Datos (RGPD) pueden usarse para entrenar estos modelos y filtrarse si la empresa sufre un ciberataque, lo que supone riesgos para nuestra privacidad. 

La recomendación de los expertos en ciberseguridad y protección de datos consultados por Maldita.es es no compartir nuestra información personal con estos chatbots de IA. El RGPD y la Ley Europea de Inteligencia Artificial les exigen limitar el tratamiento de ellos y proteger la intimidad de los usuarios, pero las empresas detrás de estos modelos no siempre dejan claro cómo almacenan o procesan esta información. La solución tampoco es usar chats temporales o eliminarlos; tampoco anonimizar nuestros documentos, ya que puede fallar.

Si ya hemos compartido datos sanitarios con estos chatbots, nuestras opciones son limitadas. Samuel Parra, abogado experto en protección de datos, aclara a Maldita.es que podemos ejercer nuestro derecho a la supresión (recogido en el artículo 17 del RGPD) para solicitar la eliminación de la información sanitaria compartida. Sin embargo, el abogado incide en que este proceso es complicado en el caso de los sistemas de IA. “Por un lado, no podemos tener la certeza de que efectivamente hayan eliminado esa información, y, por otro, es complicado que una información sea ‘suprimida’ como tal en un sistema de IA”, concluye. 

En este artículo han colaborado con sus superpoderes los malditos Verónica Bolón, profesora e investigadora en Inteligencia Artificial, Javier Ferreiro, médico y programador, y Roberto Sánchez, médico experto en protección radiológica. 

Verónica Bolón forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.