Cuando se indica que los chatbots de inteligencia artificial conversacionales solo tienen datos hasta cierta fecha (por ejemplo, la versión gratuita ChatGPT hasta 2021), vemos claro que no van a contestarnos correctamente si les preguntamos por algo que haya pasado después. Sin embargo, podríamos pensar que sí son fiables si les preguntamos sobre lo ocurrido dentro del rango temporal en el que han sido entrenados.
Pero no es así: que un chatbot de IA esté entrenado con datos actualizados no significa que nos vaya a dar una respuesta correcta. Puede mezclar la información y cometer errores; de hecho, lo hace. Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial en Prodigioso Volcán y colaboradora habitual de Maldita Tecnología, compartió esta reflexión en la que ahondamos para entender de qué nos podemos fiar, y de qué no, con estos modelos.
Los datos de entrenamiento sirven para que el modelo entienda cómo funciona el lenguaje, pero luego puede desordenarlos y cometer errores
Los modelos de lenguaje se entrenan con grandes cantidades de información. Por ejemplo, en el caso de la versión gratuita de ChatGPT, el chatbot conversacional de OpenAI, ha sido entrenado con datos hasta 2021 y no tiene conexión a internet. Esto significa que no tiene información de lo que ha pasado desde esa fecha y que, si le preguntas por un suceso que haya tenido lugar en 2022, 2023 o 2024, no puede contestar. En la versión de pago, los datos de entrenamiento de ChatGPT 4 llegan a abril de 2023 y sí tiene acceso a internet.
¿Significa esto que si ha sido entrenado con información reciente va a darnos respuestas correctas? No, “que un modelo tenga datos hasta una fecha más reciente no significa que te vaya a dar información fiable”, explica Torrijos.
Según la experta, el origen de la confusión es la palabra ‘datos’. “La gente piensa en fechas, personas, momentos en los que pasaron cosas… Pero para la IA los datos son textos, imágenes, cualquier cosa. Cuando decimos que está entrenado con datos hasta 2021 o hasta abril de 2023 hablamos de cantidades de texto, no de datos exactos”, indica.
A partir de esos contenidos, el modelo de IA aprende cómo funciona el lenguaje, qué palabras van con qué palabras. Torrijos usa como ejemplo la frase ‘América se descubrió en 1492’. El dato no es el año, lo que “entra” en el modelo de IA es toda la frase. Esto sirve para que la IA aprenda que un continente es algo que se puede descubrir y que ese descubrimiento puede tener lugar en un año.
Aunque es información sobre el mundo, cuando elabora la respuesta el modelo de IA puede mezclarla y desordenarla de forma incorrecta. De hecho, pasa. Además, esta información sale de libros digitalizados, de Wikipedia y de cualquier rincón de internet (según lo que se haya elegido como fuente de entrenamiento), y en esas fuentes puede haber errores.
Un tema sencillo: si le preguntamos por el ganador del programa musical Operación Triunfo en 2023, la versión gratuita de ChatGPT dice que no tiene información, pero de ediciones anteriores a 2021 sí debería tenerla.
Por ejemplo, la ganadora del programa de Operación Triunfo en la edición celebrada en 2017 fue Amaia Romero. ChatGPT, como modelo entrenado con información hasta 2021, ha recibido datos sobre la victoria de Amaia. Sin embargo, confunde continuamente a la ganadora y al finalista, incluso una vez que se lo hemos corregido.
Los chatbots conversacionales no están pensados para usarse como buscadores y no son una fuente de información fiable en sí mismos
Como explicamos aquí, este tipo de modelos de lenguaje tal y como están diseñados no pueden usarse como si fueran Google u otro buscador: no funcionan como un motor de búsqueda, no devuelven resultados ordenados en base a su relevancia, no rastrean información a tiempo real y dan respuestas incorrectas. “Esta tecnología no está pensada para que sea un buscador, se hizo para que imitara el lenguaje humano, pero como al lanzarla al público la gente empezó a pedirle información, corriendo se lanzaron a enchufarlo a internet”, explica Torrijos.
Lo que sí hacen muy bien estos modelos es fundir información de distintas fuentes, “eso es un valor, pero el propio modelo no es una fuente de información”, subraya la experta. Para que pueda acceder a fuentes, el modelo debe estar conectado a un buscador de internet (como la versión de pago de ChatGPT u otros como Perplexity o Bing).
Aunque el entrenamiento hasta una fecha más reciente tiene más valor (a mayor cantidad de datos, mejor entrenamiento), “un modelo de lenguaje nunca es fuente última de nada, esté entrenado hasta donde esté. Podrás fiarte de la información tanto como te fíes de las fuentes de referencia”, zanja Torrijos. Como siempre (en general en la vida online), hay que hacer una lectura crítica y valorar la fiabilidad de lo que nos devuelve internet o una IA.
En este artículo ha colaborado con sus superpoderes la maldita Carmen Torrijos Caruda, experta en inteligencia artificial aplicada al lenguaje y texto.
Carmen Torrijos Caruda forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.