MENÚ
MALDITA TECNOLOGÍA

Por qué ChatGPT y otros chatbots de IA no son fuentes fiables de información (tampoco si sus datos están actualizados)

Publicado
Claves
  • Los modelos de lenguaje de IA se entrenan con grandes cantidades de datos que llegan hasta cierta fecha (la versión gratuita de ChatGPT, hasta 2021 y, la de pago, hasta abril de 2023)
  • Esta tecnología no está pensada como fuente de información ni como un buscador tipo Google: que sus datos de entrenamiento sean recientes no significa que vaya a devolver información fiable
  • Puede mezclar la información, desordenar los datos y cometer errores
Comparte
Categorías
Recursos utilizados
Expertos
Material producción propia

Cuando se indica que los chatbots de inteligencia artificial conversacionales solo tienen datos hasta cierta fecha (por ejemplo, la versión gratuita ChatGPT hasta 2021), vemos claro que no van a contestarnos correctamente si les preguntamos por algo que haya pasado después. Sin embargo, podríamos pensar que sí son fiables si les preguntamos sobre lo ocurrido dentro del rango temporal en el que han sido entrenados.

Pero no es así: que un chatbot de IA esté entrenado con datos actualizados no significa que nos vaya a dar una respuesta correcta. Puede mezclar la información y cometer errores; de hecho, lo hace. Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial en Prodigioso Volcán y colaboradora habitual de Maldita Tecnología, compartió esta reflexión en la que ahondamos para entender de qué nos podemos fiar, y de qué no, con estos modelos.

Los datos de entrenamiento sirven para que el modelo entienda cómo funciona el lenguaje, pero luego puede desordenarlos y cometer errores

Los modelos de lenguaje se entrenan con grandes cantidades de información. Por ejemplo, en el caso de la versión gratuita de ChatGPT, el chatbot conversacional de OpenAI, ha sido entrenado con datos hasta 2021 y no tiene conexión a internet. Esto significa que no tiene información de lo que ha pasado desde esa fecha y que, si le preguntas por un suceso que haya tenido lugar en 2022, 2023 o 2024, no puede contestar. En la versión de pago, los datos de entrenamiento de ChatGPT 4 llegan a abril de 2023 y sí tiene acceso a internet.

¿Significa esto que si ha sido entrenado con información reciente va a darnos respuestas correctas? No, “que un modelo tenga datos hasta una fecha más reciente no significa que te vaya a dar información fiable”, explica Torrijos.

Según la experta, el origen de la confusión es la palabra ‘datos’. “La gente piensa en fechas, personas, momentos en los que pasaron cosas… Pero para la IA los datos son textos, imágenes, cualquier cosa. Cuando decimos que está entrenado con datos hasta 2021 o hasta abril de 2023 hablamos de cantidades de texto, no de datos exactos”, indica. 

A partir de esos contenidos, el modelo de IA aprende cómo funciona el lenguaje, qué palabras van con qué palabras. Torrijos usa como ejemplo la frase ‘América se descubrió en 1492’. El dato no es el año, lo que “entra” en el modelo de IA es toda la frase. Esto sirve para que la IA aprenda que un continente es algo que se puede descubrir y que ese descubrimiento puede tener lugar en un año. 

Aunque es información sobre el mundo, cuando elabora la respuesta el modelo de IA puede mezclarla y desordenarla de forma incorrecta. De hecho, pasa. Además, esta información sale de libros digitalizados, de Wikipedia y de cualquier rincón de internet (según lo que se haya elegido como fuente de entrenamiento), y en esas fuentes puede haber errores. 

Un tema sencillo: si le preguntamos por el ganador del programa musical Operación Triunfo en 2023, la versión gratuita de ChatGPT dice que no tiene información, pero de ediciones anteriores a 2021 sí debería tenerla. 

Por ejemplo, la ganadora del programa de Operación Triunfo en la edición celebrada en 2017 fue Amaia Romero. ChatGPT, como modelo entrenado con información hasta 2021, ha recibido datos sobre la victoria de Amaia. Sin embargo, confunde continuamente a la ganadora y al finalista, incluso una vez que se lo hemos corregido.

Los chatbots conversacionales no están pensados para usarse como buscadores y no son una fuente de información fiable en sí mismos

Como explicamos aquí, este tipo de modelos de lenguaje tal y como están diseñados no pueden usarse como si fueran Google u otro buscador: no funcionan como un motor de búsqueda, no devuelven resultados ordenados en base a su relevancia, no rastrean información a tiempo real y dan respuestas incorrectas. “Esta tecnología no está pensada para que sea un buscador, se hizo para que imitara el lenguaje humano, pero como al lanzarla al público la gente empezó a pedirle información, corriendo se lanzaron a enchufarlo a internet”, explica Torrijos.

Lo que sí hacen muy bien estos modelos es fundir información de distintas fuentes, “eso es un valor, pero el propio modelo no es una fuente de información”, subraya la experta. Para que pueda acceder a fuentes, el modelo debe estar conectado a un buscador de internet (como la versión de pago de ChatGPT u otros como Perplexity o Bing).

Aunque el entrenamiento hasta una fecha más reciente tiene más valor (a mayor cantidad de datos, mejor entrenamiento), “un modelo de lenguaje nunca es fuente última de nada, esté entrenado hasta donde esté. Podrás fiarte de la información tanto como te fíes de las fuentes de referencia”, zanja Torrijos. Como siempre (en general en la vida online), hay que hacer una lectura crítica y valorar la fiabilidad de lo que nos devuelve internet o una IA.


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.