menu MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: usar chatbots de IA como un buscador tipo Google y ChatGPT como médico, una idea con riesgos (además, la IA puede ser una caja negra)

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditos y malditas! Hace un par de semanas que no hacemos Tech en un clic porque estamos trabajando en algunos temas que requieren más tiempo y también en formaciones y materiales relacionados con inteligencia artificial. (Por si os apetece, aquí algunas claves sobre desinformación e IA).

Pero esta semana tenemos que hablar de cómo se está volviendo cada vez más común usar chatbots de IA como si fueran un buscador y del movimiento estratégico de Google para reaccionar a esto. También de que es muy mala idea usar ChatGPT como si fuera nuestro médico, y te explicamos por qué.

Uses buscadores o chatbots de IA para consultar, comprueba la información

Al principio empezaron a ser comentarios que veíamos en redes sociales, luego experiencias de amigos y compañeros, y después llegaron los datos que certificaron que no era casualidad ni una sensación: cada vez más usuarios eligen hacer sus búsquedas en chatbots de IA, como ChatGPT, Grok y Copilot, en vez de usar buscadores tradicionales, como Google o Bing. Por ejemplo, en EEUU, un 27% de los usuarios ya usa herramientas de IA en lugar de buscadores.

¿Es esto un problema? Puede serlo si no entendemos cómo funcionan estos chatbots y sus diferencias con un buscador como lo conocemos hasta ahora, y si nos creemos a pie juntillas lo que nos devuelven (ambos).

Los chatbots de IA funcionan gracias a modelos de lenguaje de gran tamaño que predicen sucesivamente las siguientes palabras en base a probabilidades, según lo que le pidamos y lo que haya aprendido durante su entrenamiento con datos e internet. Pero estos datos pueden contener información incorrecta o cosas falsas. Por eso, los chatbots de IA no son fuentes fiables de información, ya que pueden mezclar la información, desordenar los datos y cometer errores.

Por su parte, los buscadores exploran internet gracias a los rastreadores web, que buscan páginas para añadir a su índice y después utilizan algoritmos para ordenar los resultados ((algo que al principio de los tiempos se hacía en base a su relevancia, pero ahora hay anuncios de pago y estrategias de SEO que hacen que tampoco nos podamos fiar de este criterio). Además, también devuelven contenido de internet en forma de enlaces, donde también puede haber errores y desinformación.

Sí es cierto que los motores de búsqueda tradicionales suelen actuar como intermediarios que nos guían a sitios web de noticias y otros contenidos de calidad, y que nosotros podemos decidir qué clicar, movernos entre la información, buscar… (claro, para eso son), pero los chatbots “analizan y reorganizan la información por sí mismos, interrumpiendo el flujo hacia las fuentes originales”. No es la misma experiencia y debemos tenerlo en cuenta. 

En resumen: es importante siempre contrastar los resultados de nuestras búsquedas, las hagamos con una IA o un buscador tradicional.

Como te decíamos, el uso de los chatbots de IA como buscadores tradicionales está creciendo rápidamente, pero de momento están muy lejos de alcanzarlos. Por si acaso y viendo la tendencia, Google ha decidido adelantarse: este pasado martes, la compañía anunció el lanzamiento de su 'AI mode' que permite reemplazar las búsquedas clásicas con una experiencia similar a la de un chatbot de IA. Cero sorpresas, ya implementaron su vista creada con IA.

"Puedes preguntar cualquier cosa que tengas en mente y obtener una respuesta útil creada con IA, con la posibilidad de profundizar con preguntas adicionales y enlaces web útiles", explican en su web respecto a la futura funcionalidad. De momento, no se puede acceder a 'AI mode' desde España y Google solo ha dicho que en general estará disponible “en las siguiente semanas”. Estaremos pendientes para contarte.

ChatGPT no puede diagnosticar cáncer

Usar ChatGPT pensando que es un buscador puede tener riesgos, pero utilizarlo para cuidar nuestra salud es otro nivel. Es otra tendencia que hemos identificado, porque en sitios web y redes sociales circulan testimonios de personas que dicen haber recibido diagnósticos de cáncer de chatbots de IA antes de que los médicos se lo hubieran detectado.

A ver… Confiar en estos chatbots de IA para que nos diagnostiquen no es una buena idea: como te he contado, sus resultados se basan en probabilidades y los datos de entrenamiento pueden no ser fiables. Tampoco pueden realizar el análisis médico necesario ni manejan la información suficiente para poder hacer un diagnóstico, por lo que no tienen en cuenta otros factores como patologías o nuestro contexto, algo que sí hace un médico.

Sí, claro, por probabilidad a veces pueden acertar. Pero es mucho tentar al azar y mucho arriesgar. Usar ChatGPT, Grok, Gemini o cualquier chatbot para sustituir a un profesional puede derivar en diagnósticos equivocados, tratamientos inadecuados y riesgos para la salud. “No nos podemos jugar nuestra salud pidiendo diagnóstico a un sistema que todavía no es robusto ni fiable”, dice una de las expertas con las que hemos hablado.

Aquí te contamos los detalles y también en vídeo (en X y en Instagram) por si nos ayudas a compartirlo para que llegue a más personas y nadie ponga en riesgo su salud.

La IA como una caja negra

Insistimos mucho en que debemos tener cuidado al utilizar la información que nos devuelve un chatbot porque puede que en vez información sea desinformación (por la propia forma en la que la IA monta la respuesta y por los datos de entrenamiento). Y a esto, a nivel interno y técnico, se le suma otra complejidad: que las IA pueden ser cajas negras.

Estamos ante una caja negra cuando es complicado entender por qué y cómo los algoritmos de un modelo de IA han tomado una decisión. Por ejemplo, cuando pedimos a ChatGPT que genere un texto, entendemos lo que hemos pedido y el resultado que nos da, pero no sabemos exactamente qué pasó en el camino entre el prompt (la instrucción de texto) y la respuesta: a qué relaciones entre palabras les dio más peso que a otras, en qué probabilidades se basó para elegir unos contenidos u otros y, en ciertos modelos de IA, ni siquiera sabemos qué fuentes o bases de datos consultó.

Para descifrar estas cajas negras, existe un concepto que explicamos en este artículo: la explicabilidad de la inteligencia artificial o IA explicable. Es el conjunto de métodos que permite comprender cómo funciona una IA y avanzar hacia una tecnología más transparente, ética y que facilite la buena gobernanza. Es decir, promueve el desarrollo de modelos de IA más transparentes y éticos. Además, entender cómo funciona la IA también puede ayudar a que las personas entiendan su alcance y sus límites (y limitar riesgos como los que te explicamos arriba).

¿Y esto de la IA explicable, transparente y ética es obligatorio? Pues aunque no exige un método específico de explicabilidad como tal, la Ley Europea de Inteligencia Artificial (AI Act) sí establece obligaciones de transparencia y responsabilidad en esta dirección, en especial para los sistemas de alto riesgo.

En tres bits

  • Publicar la cadena "Adiós Meta AI" no evita que "usen tu información y fotos" para su IA. En Instagram, Facebook y Threads circula la cadena “Adiós Meta AI” en la que se asegura que la dueña de estas redes sociales, Meta, “es ahora una entidad pública”, y que si no publicamos este texto se usará nuestra “información y fotos”. Compartir este texto no tiene ninguna validez legal (como suele pasar con este tipo de cadenas) sobre las condiciones que ya aceptamos al crear nuestras cuentas. La única forma de negarnos a que se usen nuestros contenidos e interacciones con Meta AI para entrenar la IA de la compañía es a través de los formularios oficiales; aquí te contamos los pasos. Además, Meta sigue siendo una entidad privada y no hay registros de planes para convertirse en una entidad pública.

  • No hay una nueva regla que permita a WhatsApp usar tus fotos. Esto es un viejo bulo, pero se repite y repite como el ajo: desde 2021 circula una cadena de WhatsApp que asegura que "mañana" (un mañana que nunca llega) comenzará una nueva regla que permite a la aplicación de mensajería usar nuestras fotos, pero es mentira. Recuerda que los mensajes en WhatsApp están cifrados de extremo a extremo, por lo que solo pueden leerlos el emisor y el destinatario. Si te llega, no compartas el mensaje porque (de nuevo) reenviar la cadena entre tus contactos no da autorización para nada. En vez de contribuir a que se expanda, manda este artículo para ayudarnos a parar la desinformación.

  • Inteligencia artificial para estafar a empresas. Con IA se pueden optimizar y automatizar un montón de procesos en el trabajo… pero los ciberdelincuentes también se han dado cuenta de ello. En este artículo repasamos cómo la están usando para estafar a empresas: correos de phishing perfeccionados, vídeos y audios manipulados con IA suplantando la identidad de jefes, IA para generar identidades falsas e infiltrarse en procesos de selección, o desarrollo de malware y bots de ingeniería social. Ojo cuidao.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.