menu MENÚ
MALDITA CIENCIA

"ChatGPT, échame las cartas": por qué nada ni nadie (tampoco un chatbot de IA) puede predecir tu futuro

Publicado
Claves
  • Circulan vídeos donde se recomienda usar ChatGPT para realizar lecturas del tarot que nos sirvan de guía para distintas situaciones personales. Los usuarios señalan que las predicciones del chabot de IA de OpenAI son “acertadas”
  • Pero ningún chatbot de IA (ni ninguna persona) puede predecir nuestro futuro: las lecturas del tarot aprovechan nuestros sesgos para que las respuestas nos parezcan reales
  • Los chatbots de IA no piensan ni entienden lo que dicen, y hay que tener cuidado con la información que les damos, ya que puede usarse para su entrenamiento o compartirse con terceros
Comparte
Etiquetas

“Estoy alucinando con el tarot del ChatGPT”, “ha acertado en muchas cosas que me están pasando”, “me encanta”. Así describen algunos usuarios su experiencia tras pedir a ChatGPT que “les lea las cartas” del tarot. Animan a sus seguidores a probarlo y preguntar al chatbot de IA de OpenAI por situaciones personales o dudas sobre su futuro. Uno de estos contenidos, que acumula 1,7 millones de visualizaciones, incluso recomienda dar datos personales como nuestro nombre completo y fecha de nacimiento para el supuesto análisis. 

Pero ni ChatGPT ni cualquier otro chatbot de IA (como Grok o Gemini) puede predecir el futuro (tampoco analizar nuestro presente). De hecho, nada ni nadie puede hacerlo. Las pseudotécnicas de adivinanza que se usan en el tarot y a las que imita la IA se valen de fenómenos y sesgos cognitivos para hacernos sentir que sus predicciones son acertadas. De ahí que las “lecturas” de ChatGPT puedan resultar tan convincentes a los usuarios que se prestan a ellas. 

También hay que recordar que una IA no piensa ni entiende lo que dice, y que puede usar la información que le damos para entrenarse y compartirla con terceros. 

Ni ChatGPT (ni nadie) puede predecir nuestro futuro: las lecturas del tarot aprovechan nuestros sesgos y tendencias para que las creamos 

Los comentarios en los vídeos en los que se explica cómo pedir a ChatGPT que nos “lea el tarot” son, en su mayoría, positivos. “Lo ha acertado todo”, “sigo en shock”, “me dijo todo lo que pasó con mi ex”, “ayuda, acertó en todo”, dicen algunos de ellos. 

Pero no: ChatGPT no tiene la capacidad de ver o predecir el futuro. Ni este modelo de IA ni nadie. Tampoco dispone de un conocimiento profundo sobre nuestro presente. Como explicó en La Dudoteca Álvaro Bayón, divulgador científico, las técnicas adivinatorias, como las que usan los médiums o tarotistas, se basan en “una serie de métodos que aprovechan los sesgos cognitivos para dar una apariencia legítima”. ChatGPT puede imitar este tipo de respuestas, en especial si se le pide explícitamente que ‘actúe’ como un tarotista. 

Entre estos métodos, se encuentra el efecto Forer o efecto Barnum, un fenómeno que la adivinanza y otras propuestas sin evidencia científica (como el horóscopo y la astrología, en general) usan a su favor. Este efecto refleja la tendencia a pensar que una serie de características generales nos describen a cada uno de nosotros a la perfección.

También influye el sesgo de confirmación, es decir, “la tendencia a sobreestimar la información que nos es favorable desechando la que no lo es, hace el resto del trabajo”, concluye Bayón.

Los chatbots de IA no entienden ni piensan lo que dicen, generan su respuesta prediciendo la siguiente palabra plausible (y pueden usar tus datos para entrenarse)

Ya sabemos por qué nos pueden parecer tan convincentes las lecturas de ChatGPT, pero, ¿cómo sabe este chatbot de IA qué contestarnos? El modelo de gran tamaño (LLM, por sus siglas en inglés) que genera sus respuestas funciona prediciendo la siguiente palabra plausible, según el prompt dado por el usuario y lo aprendido durante su entrenamiento. 

Lo mismo ocurre con el resto de chatbots de IA, como Grok, Claude o Gemini. Lejos de tratarse de una supuesta intuición, la forma en la que se originan esas “predicciones” es a través de un sistema probabilístico. Recordemos también que una IA no tiene conciencia, y tampoco piensa, siente o entiende lo que dice. 

Además, en este proceso también pueden verse involucrados nuestros datos personales. Por ejemplo, en uno de los vídeos en los que se enseña a usar ChatGPT para esta supuesta lectura del tarot, se sugiere compartir con el chatbot de IA nuestro nombre completo, fecha de nacimiento y signo del zodiaco. Datos que, junto a nuestras interacciones y los documentos e imágenes que compartimos con ChatGPT, utilizan tanto OpenAI, como otras compañías (como xAI de Grok), para entrenar su IA. Estas empresas también pueden compartir esta información con terceros

Por eso es mejor pensarlo dos veces antes de compartir datos como estos, o subir fotos, conversaciones o documentos personales a cualquier chatbot de IA para que realice “una lectura del tarot” (y en general). En el caso de ChatGPT, si no quieres que tu actividad se use para entrenar a esta IA, puedes oponerte en el apartado de ‘Configuración’ de tu cuenta. También ten cuidado con compartir esta información en redes sociales, ya que puede caer en las manos equivocadas. 

En este artículo ha colaborado con sus superpoderes el maldito Álvaro Bayón, divulgador científico. 

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.