El 2 de abril de 2024 la Organización Mundial de la Salud (OMS) presentó al público Sarah, un asistente virtual basado en inteligencia artificial (IA) para responder a cuestiones sobre hábitos saludables y sanidad. De forma similar a como se usan otros chatbots conversacionales como ChatGPT, podemos lanzar consultas a Sarah a través de mensajes de texto. Pero a diferencia del programa de Open AI, también podemos hablar con Sarah a través de videollamada.
El organismo advierte de que este asistente no se puede usar como un sustituto al asesoramiento profesional, ya que sus respuestas pueden no ser exactas. También hay dudas sobre qué información personal puede recoger, ya que es necesario conceder los permisos de cámara y micrófono antes de usar el asistente. La OMS asegura que emplea nuestros datos biométricos para ofrecernos la mejor experiencia de usuario, pero Sarah sólo nos informa de la política de privacidad si negamos los permisos de la cámara y el micrófono.
¿Qué es Sarah? ¿Para qué sirve?
Sarah (S.A.R.A.H, acrónimo de Smart AI Resource Assistant for Health, asistente inteligente de IA para la salud) es un asistente virtual desarrollado por la Organización Mundial de la Salud en colaboración con la compañía Soul Machines, especializada en crear avatares digitales. Se trata de un bot conversacional que funciona mediante inteligencia artificial al que podemos enviar dudas y consultas sobre temas relacionados con nuestra salud.
Podemos usar Sarah en nuestro dispositivo móvil o en nuestro ordenador para recibir consejos sobre cómo reducir el estrés o llevar una alimentación más saludable. Para ello, podemos escribir las preguntas y mantener una conversación a través de mensajes de texto al igual que otros chat conversacionales, como ChatGPT. Pero también podemos hablar con Sarah a través de una videollamada, de la misma manera en la que interactuamos con otros asistentes de voz como Google, Siri o Alexa.
En una nota de prensa el director general de la OMS, el doctor Tedros Adhanom Ghebreyesus, asegura que “esta tecnología” ayudará a “reducir las desigualdades” y a “proporcionar información actualizada y fiable sobre salud a todas las personas”. “S.A.R.A.H. es un ejemplo más de las posibilidades que ofrece la inteligencia artificial para dar un acceso mejor y más interactivo a la información sobre salud en el futuro”, incide Adhanom en la publicación.
No es la primera vez que la OMS lanza un asistente virtual. Sarah tiene su antecesor en Florence, un chatbot conversacional creado en 2021 que ofrecía información sobre la pandemia de la COVID-19 y servía como ayuda para dejar de fumar, entre otros. El organismo detalla que Sarah “es una versión mejorada de modelos anteriores que utilizan esta misma tecnología”.
¿Me puedo fiar que un asistente me dé respuestas sobre salud? ¿En qué se diferencia de ChatGPT?
La OMS señala que Sara “utiliza IA generativa para transmitir mensajes de salud basados en los datos disponibles”. Pero aunque esté entrenada con información sanitaria, la organización aclara que “es posible que las respuestas no siempre sean exactas” ya que “se basan en patrones y probabilidades”. “ La OMS no se hace responsable de ningún contenido de conversaciones creado por IA generativa y no garantiza la exactitud de ningún contenido de estas conversaciones”, asegura el organismo en su página web, y añade que no se debe usar como “única fuente de verdad o de información objetiva” y que “no sustituye al asesoramiento profesional”.
La OMS no puede asegurar la exactitud de las respuestas de Sarah. Fuente: OMS.
Desde Maldita.es hemos advertido en otras ocasiones de los riesgos que puede suponer dejar nuestra salud en las manos de una inteligencia artificial. Por ejemplo ChatGPT, el bot conversacional desarrollado por OpenAI, devuelve información que puede ser errónea o que no esté actualizada ya que ha sido entrenado con diferentes textos de la web, no está especializado en ofrecer información sanitaria. Lo mismo pasa con la elaboración de dietas, ya que este programa no tiene en cuenta nuestras intolerancias u otras enfermedades.
Otros sistemas conversacionales que ofrecen datos sobre la salud, como Azure Health Bot, sí han sido entrenados con contenidos médicos validados clínicamente, como la Biblioteca Nacional de Medicina de Estados Unidos, aunque tampoco están recomendados como una alternativa a la asistencia profesional. En el caso de Azure Health Both, Microsoft advierte que no se puede usar para obtener un diagnóstico ni para sustituir al asesoramiento médico.
¿Qué datos sanitarios puede recoger? ¿Qué puede hacer con ellos?
Según la OMS, todos los datos sobre las conversaciones “se anonimizan y cumplen las prácticas y normativas vigentes sobre privacidad”.
La OMS asegura que nuestros datos se anoniminzan y cumplen las normativas de privacidad. Fuente: OMS.
Según la política de privacidad de Soul Machines, empresa responsable de este asistente, nuestros datos personales no serán tratados a no ser que demos un consentimiento explícito para ello. La compañía detalla que sólo procesa esta información en “circunstancias limitadas”, tras solicitar un consentimiento explícito al usuario.
Política de privacidad de Soul Machines. Fuente: Soul Machines.
Nuestros datos sanitarios están especialmente protegidos por el Reglamento General de Protección de Datos (RGPD), por lo que tenemos que tener especial cuidado cuando los cedemos a otras personas, como es el caso de asistentes conversacionales como Sarah.
¿Qué otro tipo de información guarda Sarah? ¿Se hace con mis rasgos faciales?
Algunos usuarios en las redes sociales han denunciado que con este asistente la OMS busca hacerse con nuestros datos biométricos. Estas dudas vienen de que para usar Sarah hay que dar acceso a nuestra cámara web y a nuestro micrófono. Si no, no funciona.
Según la OMS, esto se hace porque para que “la interacción sea auténtica y parezca humana”, Sarah “necesita recabar y procesar información relacionada con las expresiones del usuario”. El organismo insiste en que esta información se anonimiza y que no se guarda, divulga ni comparte con terceros.
La OMS asegura que Sarah puede recoger información relacionada con nuestras expresiones. Fuente: OMS.
Según la política de privacidad de Soul Machines para interaccionar con Sarah nos solicitarán consentimiento explícito para “recoger y usar información sensible” sobre nuestros rasgos faciales, nuestras expresiones y nuestra voz.
Política de privacidad de Soul Machines. Fuente: Soul Machines.
Desde Maldita.es hemos podido comprobar que si concedemos los permisos de cámara y de micrófono para acceder a Sarah no se nos pregunta si queremos aceptar la política de privacidad. Esta opción sólo aparece una vez si el asistente detecta que no hemos concedido estos permisos.
Sarah sólo nos informa de la política de privacidad si negamos los permisos de la cámara y el micrófono. Fuente: OMS.
Nuestro rostro y nuestra voz están considerados datos biométricos: rasgos de nuestro físico que nos identifican de forma inequívoca y que no se pueden cambiar. Cuentan con una especial protección por la RGPD y, al igual que los datos sanitarios, no se pueden tratar a no ser que nosotros demos nuestro consentimiento explícito para ello. Aquí puedes encontrar más información sobre el uso de datos biométricos. Desde Maldita.es nos hemos puesto en contacto con la OMS para ampliar los detalles sobre el tratamiento de datos personales y este artículo se actualizará con cualquier información adicional.