menu MENÚ
MALDITA TECNOLOGÍA

¿Doctor Grok? Por qué la sugerencia de Elon Musk de subir documentos médicos a la IA de Twitter (ahora X) no es una buena idea

Publicado
Claves
  • Elon Musk, el dueño de Twitter (ahora X), ha recomendado en varias ocasiones compartir imágenes y documentos médicos con Grok, la IA de la red social, para obtener un diagnóstico de salud 
  • Esto contradice la Política de Privacidad de xAI, su compañía detrás de Grok, que pide a los usuarios no compartir información sensible con el chatbot y advierte de que los documentos que subimos se recopilan y pueden compartirse 
  • Los chatbots de IA no son fuentes fiables de información y pueden cometer errores en los diagnósticos. Los médicos consultados por Maldita.es no recomiendan su uso con estos fines, ya que puede sugerir tratamientos inadecuados 
Comparte
Etiquetas

“Ahora mismo puedes subir tus radiografías o imágenes de resonancia magnética a Grok y te dará un diagnóstico médico. He visto casos en los que es incluso mejor que lo que te dicen los médicos”. Con estas palabras, Elon Musk, el dueño de Twitter (ahora X), alabó las capacidades de Grok, la IA de la red social, para analizar imágenes médicas durante el pódcast The Joe Rogan Experience. Ya lo ha hecho antes: en su cuenta de X, la más popular en la plataforma con más de 219 millones de seguidores, ha recomendado por lo menos unas cinco veces usar su chatbot de IA generativa para analizar datos sanitarios (que son sensibles y están especialmente protegidos) como escáneres, resultados de sangre y otras análiticas. 

Pero la recomendación del líder del nuevo Departamento de Eficiencia Gubernamental (DOGE) del Gobierno estadounidense contradice la propia Política de Privacidad de xAI, la compañía de Musk que desarrolla Grok, que pide a los usuarios no proporcionar información personal e indica que los documentos que se compartan con esta IA son recopilados y pueden compartirse con terceros. Este no es el único riesgo: los chatbots de IA no son una fuente fiable de información y pueden cometer errores, también en sus diagnósticos. Por ejemplo, una radióloga tuiteó que Grok confundió una mamografía con la imagen de un cerebro. Los médicos consultados por Maldita.es no recomiendan el uso de Grok con estos fines, ya que puede resultar en tratamientos inadecuados. 

Elon Musk ha recomendado en reiteradas ocasiones compartir documentos e imágenes médicas con Grok para recibir diagnósticos de salud

Desde octubre de 2024, Elon Musk lleva recomendando a sus seguidores probar el chatbot de IA generativa de X para analizar documentos médicos y recibir un diagnóstico. “Intenta subir rayos X, PET (tomografías por emisión de positrones), MRI (imágenes por resonancia magnética) u otras imágenes médicas a Grok para su análisis. Sigue en una etapa temprana, pero ya es bastante exacto y se volverá extremadamente bueno. Dinos cuándo Grok acierta y cuándo necesita mejorar”, tuiteó el 29 de octubre de 2024 en una publicación con más de 41 millones de visualizaciones. 

Desde entonces, ha publicado por lo menos otras cuatro veces con la misma recomendación y ha aparecido en el pódcast del comediante estadounidense Joe Rogan animando a usar Grok con estos fines. “Puedes subir cualquier imagen a Grok, incluyendo imágenes médicas y recibir su opinión (no de doctor). Grok diagnosticó de forma correcta a un amigo a partir de sus escáneres”, tuiteó el 9 de noviembre del año pasado, con más de 8,6 millones de visualizaciones

En estas publicaciones, el dueño de Tesla y SpaceX también ha sugerido a sus seguidores compartir con el chatbot de IA resultados de pruebas de sangre y otras analíticas. Los documentos como radiografías o diagnósticos son datos sanitarios que se consideran información sensible y están especialmente protegidos, tal y cómo recoge el artículo 9 del Reglamento General de Protección de Datos (RGPD). 

Capturas de los tuits de Elon Musk sugiriendo subir documentos e imágenes médicas a Grok.

Esta recomendación contradice la Política de Privacidad de xAI, que pide no compartir información personal y advierte de que los documentos que subimos se recopilan y comparten

Esta recomendación que Musk ha hecho una y otra vez entra en contradicción con la Política de Privacidad de xAI, su compañía detrás del desarrollo de Grok. En esta, la empresa dice no pretender recopilar información personal confidencial, como información sobre la salud o datos biométricos de los usuarios. “Te solicitamos que no nos proporciones dicha información”, pide la norma de la propia empresa. Además, el texto señala que xAI “no procesa datos de entrenamiento con el propósito de inferir o deducir datos sensibles o de categoría especial” y que tampoco “busca activamente fuentes de datos que incluyen datos sensibles o de categoría especial”. 

La misma política también aclara que recopilan información de los ‘prompts’ (instrucciones de texto) y documentos que subimos a Grok, “como archivos, imágenes, audios y otros materiales”, y que si compartimos información personal, esta puede ser “reproducida” en los resultados del chatbot: “Te pedimos que no incluyas información personal en tus entradas, sin embargo, no podemos controlar lo que nos entregas”. 

La información que recopilan del contenido de los usuarios, según xAI, puede usarse para analizar, mantener, desarrollar y mejorar el chatbot, además de para garantizar su seguridad e integridad y realizar investigaciones. La política indica que esta información puede compartirse con “proveedores, en relación con transferencias comerciales y a las compañías asociadas”, con los riesgos que esto puede conllevar. 

Los chatbots de IA pueden cometer errores y dar diagnósticos equivocados, lo que puede resultar en tratamientos inadecuados y riesgos para la salud 

Lo que pueda suceder con nuestra información personal no es el único riesgo de usar Grok con estos fines. Apoyarnos en la IA de X para obtener un diagnóstico médico puede suponer riesgos para nuestra salud, ya que estos chatbots no son fuentes fiables de información y pueden mezclar la información, desordenar los datos y cometer errores. Y lo más importante: no hay un profesional médico colegiado detrás, es solo un modelo de IA jugando a juntar datos en base a probabilidades.

Cuando Musk lanzó por primera vez la idea de usar Grok para analizar imágenes médicas, algunos radiólogos pusieron a prueba esta recomendación. Por ejemplo, el radiólogo francés, Thibaut Jacques, publicó en X los resultados que arrojó la IA a sus imágenes de resonancia magnética, que calificó como “no ciertos”, “muy genéricos y sin diagnóstico”. Laura Heacock, radióloga e investigadora de aprendizaje profundo, también puso a prueba al chatbot con varias imágenes médicas y concluyó en un hilo de X que no hubo “ningún diagnóstico correcto” e incluso que Grok había confundido una mamografía con la imagen de un cerebro. 

También pueden tener un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar (igual que puede suceder si lo usamos como psicólogo) o sufrir alucinaciones y crear resultados sin sentido o inexactos que podrían llevar a recomendar o aconsejar cosas que no sean buenas para las personas. 

Para Javier Ferrero, médico, programador y maldito que nos ha prestado sus superpoderes, uno de los riesgos radica en los datos que utiliza Grok para responder: “Sabemos que coge los resultados de su gestión de millones de datos que están accesibles y que hay bastantes que no son ciertos”. 

“Un modelo mal entrenado produce resultados erróneos con importantes consecuencias para la salud. Yo no recomiendo el uso de esta herramienta como sustituto de un especialista médico”, afirma Roberto Sánchez, médico experto en protección radiológica y maldito que nos ha prestado sus superpoderes. Además, el especialista sugiere que el llamamiento a subir estas imágenes a Grok “podría estar relacionado con la obtención de grandes cantidades de imágenes reales y actuales, que son necesarias para entrenar el modelo”. 

Ferrero matiza que los sistemas de IA pueden apoyar y ser muy útiles para el trabajo de los médicos (es decir, como una herramienta de apoyo para los profesionales, no un sustituto), y pone como ejemplo el uso para el seguimiento de la esclerósis múltiple en Galicia. Sin embargo, el médico recuerda que es importante “evaluar los porcentajes de casos dudosos o falsos y las consecuencias que pueden tener para los pacientes”. En ese sentido, advierte de que un usuario puede aplicar “tratamientos inadecuados” si una IA comete un error: “Creo que es un porcentaje bajo, pero claro, si hablamos de salud, las malas decisiones siempre son importantes”, concluye. 

En este artículo han colaborado con sus superpoderes los malditos Javier Ferrero, médico y programador, y Roberto Sánchez, médico experto en protección radiológica. 

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.