menu MENÚ
MALDITA TECNOLOGÍA

Cuidado con el ‘prompt’ de TikTok para que ChatGPT actúe como "un científico cognitivo" y nos analice: usar chatbots de IA para consejos y terapia tiene riesgos

Publicado
Claves
  • Se ha viralizado en TikTok un prompt (instrucción de texto) para que ChatGPT actúe como “un científico cognitivo” y analice nuestra personalidad, patrones y traumas. En los comentarios, los usuarios dicen confiar en este supuesto análisis psicológico 
  • Los chatbots de IA como ChatGPT no piensan ni sienten lo que dicen, siguen un modelo probabilístico para generar sus respuestas. Además, son entrenados con datos de internet que pueden no ser fiables y pueden cometer errores
  • Psicólogos consultados por Maldita.es advierten de que estos chatbots de IA pueden dar diagnósticos erróneos, darnos la razón en todo y retrasar la mejora de las personas. Tampoco pueden ofrecer la experiencia, escucha activa y empatía de un profesional 
Comparte
Etiquetas

“Eres un científico cognitivo de clase mundial (...). Tu tarea es realizar un análisis brutalmente honesto y extremadamente preciso de mi personalidad”. De esta manera comienza un prompt (instrucción de texto) para ChatGPT que se ha viralizado a través de TikTok, que sirve para pedir al chatbot de IA de OpenAI que analice nuestros “patrones de comportamiento, distorsiones cognitivas, traumas no resueltos y puntos ciegos emocionales”. En los comentarios de estos vídeos (que acumulan millones de visualizaciones), hay usuarios que aseguran confiar en estas respuestas e incluso algunos afirman que les ha hecho llorar

Pero usar chatbots de IA, como ChatGPT, Claude o Grok, para recibir soporte emocional, consejos y terapia, puede suponer riesgos para las personas (que dicen utilizarlos porque es fácil, gratis y rápido acceder a ellos). Los psicólogos consultados por Maldita.es advierten de que pueden dar diagnósticos erróneos y retrasar que las personas mejoren. Además, los chatbots pueden ‘alucinar’ (dar respuestas erróneas, inexactas o sesgadas) o decirnos lo que queremos escuchar. Por el contrario, los especialistas ofrecen una autenticidad, experiencia, escucha activa y empatía que una IA no es capaz de dar. 

Los vídeos que comparten este prompt acumulan millones de visualizaciones en TikTok y los usuarios aseguran que el análisis es acertado

Los vídeos virales que circulan en TikTok recomiendan y comparten su experiencia pidiendo a ChatGPT que actúe como “un científico cognitivo de clase mundial, terapeuta especializado en trauma y experto en comportamiento humano” para que los analice psicológicamente. Los tres vídeos más vistos (aunque hay muchos más) acumulan más de 1,6 millones de visualizaciones en la red social. 

El prompt viral, que los usuarios comparten a través de capturas o en la descripción del vídeo, o aseguran enviar por mensaje directo, supuestamente ofrece un análisis en tres fases: primero, un “autoanálisis profundo e identificación de patrones”; segundo, una “mitigación estratégica del trauma y reconstrucción personal”; y por último, un “reto de honestidad brutal”. 

Al final de esta instrucción, se solicita a ChatGPT un entregable que contenga “los cinco traumas o defectos más importantes que debo abordar primero”, “las acciones concretas que debo tomar para resolverlos, “métodos respaldados por la psicología y la neurociencia para acelerar mi crecimiento personal”, “una estrategia a largo plazo para evitar recaer en viejos hábitos”, y “un reto de siete días para demostrar que estoy comprometido/a con mi transformación”.

En los comentarios de estos vídeos, algunos usuarios piden el prompt para probarlo ellos mismos, y muchos otros aseguran que la experiencia funciona: “Lloré y me cuestioné toda mi vida”, “acertó en todo”, “supo tal cual mi situación”, “me ayuda a crecer y a sanar”, “fue honesto”, son algunos de los mensajes. 

Usar chatbots de IA para consejos terapéuticos conlleva riesgos: pueden equivocarse y retrasar la mejora, además de darnos las respuestas que queremos escuchar

A pesar de estos comentarios, esto no es posible: los chatbots de IA no piensan ni entienden lo que decimos, y tampoco tienen conciencia. Sus respuestas no son el resultado de un entendimiento profundo de nuestra situación psicológica, sino que se generan prediciendo la siguiente palabra plausible, según el prompt dado por el usuario y lo aprendido durante su entrenamiento.

Pese a ello, muchos usuarios acuden a chatbots de IA en busca de soporte emocional, consejos y terapia, lo que puede suponer riesgos para su bienestar. Entre los factores que los motivan están su fácil acceso, que son gratis, que les evitan exponerse ante otras personas y les permiten obtener respuestas rápidas. Algunos dicen sentirse más comprendidos y menos juzgados por estos chatbots. 

Sin embargo, “los riesgos son muchos, entre ellos una falta de evaluación y detección errónea de necesidades”, advierte Alicia Hermoso, pedagoga, doctoranda en educación y maldita que nos ha prestado sus superpoderes. Por su parte, Víctor Oñoro, psicólogo especializado en educación y maldito, precisa que estos chatbots de IA no fueron entrenados para dar respuestas profesionales a cuestiones de salud mental y que ignoran “cuestiones críticas para la evaluación psicológica como gestos, miradas, formas de contestar, silencios, emociones”. Además, el psicólogo sostiene que su uso puede evitar que las personas acudan a un profesional,retrasando o impidiendo la mejora de su bienestar y actuando como una tirita”. 

Además, los chatbots de IA se entrenan y nutren con información de internet, que puede no ser fiable. También pueden sufrir ‘alucinaciones’ (dar resultados incorrectos, inexactos o sesgados) o tener un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar. 

En ese sentido, los psicólogos consultados por Maldita.es sostienen que las personas que ejercen esta profesión (que en España deben estar colegiados) ofrecen una autenticidad, experiencia, escucha activa y empatía que una IA no es capaz de dar, aunque, según ellos, esta tecnología sí puede asistirles con tareas supervisadas para lograr llegar a más pacientes, por ejemplo. 

En este artículo han colaborado con sus superpoderes los malditos Víctor Oroño, psicólogo especializado en educación, y Alicia Hermoso, pedagoga y doctoranda en educación. 

Alicia Hermoso forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.