“Hay momentos puntuales en los que, en lugar de escribirle a mi psicóloga, prefiero preguntarle a ChatGPT”, explica a Maldita.es Victoria (nombre ficticio por petición suya), de 23 años. Desde hace tres meses utiliza el chatbot de inteligencia artificial generativa de OpenAI para pedirle consejos sobre su vida personal. En redes sociales hay muchos testimonios como el suyo de usuarios que también usan Claude de Anthropic, Grok de Twitter (ahora X) o Gemini de Google como si fueran un psicólogo. Entre los factores que los motivan a hacerlo están su fácil acceso, que son gratis, que les evitan exponerse ante otras personas y les permiten obtener respuestas rápidas. Algunos dicen sentirse más comprendidos y menos juzgados por estos chatbots (a pesar de que una IA no tiene conciencia y tampoco piensa ni siente).
Los psicólogos consultados por Maldita.es advierten de que pueden dar diagnósticos erróneos o retrasar la mejora de las personas que los usan con el fin de mejorar su salud mental. Al nutrirse de información de internet pueden entrenarse con contenido no fiable. También pueden “sufrir alucinaciones” (dar resultados sin sentido o inexactos) o tener un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar. En ese sentido, los especialistas (que en España deben estar colegiados para ejercer) ofrecen una autenticidad, experiencia, escucha activa y empatía que una IA no es capaz de dar, aunque, según ellos, esta tecnología sí puede asistirles con tareas supervisadas para lograr llegar a más pacientes, por ejemplo.
Las razones para acudir a estos chatbots son variadas, como el acceso gratuito, no exponerse a otras personas, sentirse más comprendido y obtener respuestas rápidas
Victoria no empezó a usar ChatGPT para recibir terapia ni consejos, sino con otros fines, como preparar sus exámenes de inglés. Según cuenta a Maldita.es, con el tiempo descubrió que si le pedía la opinión sobre algún tema, el chatbot se la daba: “Eran respuestas que me convencían. Desde ahí, comencé a utilizarlo cada vez que necesito un consejo”. En redes sociales, hay usuarios que promueven el uso del chatbot de IA para estos fines, ofreciendo ‘prompts’ (instrucciones de texto) para obtener mejores resultados o compartiendo sus propias experiencias. Por ejemplo, un vídeo de TikTok de una mujer secándose sus lágrimas con el texto “después de una intensa sesión de terapia con ChatGPT” acumula más de 756.000 visualizaciones y miles de comentarios que empatizan con su vivencia.

En Reddit podemos encontrar testimonios similares de usuarios que usan los chatbots de IA generativa Claude, Gemini y Grok para hacer terapia. Estos no están diseñados específicamente para cumplir estas funciones, aunque hay otros que sí prometen acompañar a las personas, como Character.AI o Replika, tomando distintos roles como una pareja, un padre, amigo o incluso un psicólogo. Los beneficios de estos chatbots de acompañamiento tampoco están claros y pueden generar una visión distorsionada de las relaciones y aumentar la sensación de soledad, en especial en menores.
Que estos chatbots sean fáciles y gratis, las experiencias negativas que se hayan podido tener con profesionales de la salud mental, y la sensación de sentirse más comprendidos y menos juzgados (a pesar de que una IA no tiene conciencia y tampoco piensa ni siente) son algunas de las razones que exponen los usuarios para optar por ellos. “Incluso si Claude se equivoca, para mí ha proporcionado un psicoanálisis más satisfactorio y lógico que cualquier ser humano, lo cual es bastante. Los psicólogos deberían estar preocupados”, afirma un usuario de Reddit. “La diferencia es que ChatGPT es más directo con el tema. Si le hablo de algo en específico, me habla exactamente de eso, obviamente se puede extender a otros temas, pero es más breve”, defiende Victoria.
“La posibilidad de obtener respuestas rápidas, sin coste alguno (no olvidemos que ir a terapia privada no es accesible económicamente para muchísimas personas) es uno de los motivos principales”, indica Víctor Oñoro, psicólogo especializado en educación y maldito que nos ha prestado sus superpoderes. Otro factor, opina Oñoro, es el deseo de evitar la exposición a los sentimientos, emociones y vivencias que supone un proceso terapéutico y que pueden no ser agradables. “La IA supone una barrera, pues al interactuar con ella no estás expuesto física ni interiormente a otra persona”, explica. Alicia Hermoso, pedagoga, doctoranda en educación y maldita que nos ha prestado sus superpoderes, está de acuerdo en que los factores pueden ser diversos, como por ejemplo, la curiosidad o la falta de tiempo.
Los expertos advierten de que los chatbots pueden dar diagnósticos erróneos, retrasar una mejora en el bienestar, “sufrir alucinaciones” o reforzar ideas al darnos la razón
Usar un chatbot de IA como si fuera un psicólogo o para acompañarnos es un fenómeno reciente y, por lo tanto, la investigación científica sobre su impacto es limitada. En 2023, un análisis publicado en la revista Nature concluyó que estas tecnologías pueden reducir los síntomas de depresión y angustia, pero no provocar “una mejora significativa en el bienestar psicológico general”. Otra investigación de la Universidad de Stanford en 2023 reveló que algunos estudiantes redujeron sus niveles de ansiedad utilizando chatbots para el acompañamiento de la plataforma Replika.
Sin embargo, los psicólogos consultados por Maldita.es advierten de sus límites. “Los riesgos son muchos, entre ellos una falta evaluación y detección errónea de necesidades”, advierte Hermoso. Por su parte, Oñoro precisa que estos chatbots no fueron entrenados para dar respuestas profesionales a cuestiones de salud mental y que ignoran “cuestiones críticas para la evaluación psicológica como gestos, miradas, formas de contestar, silencios, emociones”. Además, el psicólogo sostiene que su uso puede evitar que las personas acudan a un profesional, “retrasando o impidiendo la mejora de su bienestar y actuando como una tirita”.
Como analiza The New York Times, estos chatbots de IA generales se diferencian de algunos diseñados específicamente para terapia (entrenados con reglas y guiones de profesionales de salud mental) en que sus resultados son impredecibles y que están diseñados para aprender del usuario, por lo que reflejan y amplifican sus creencias. Según Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y nos ha prestado sus superpoderes, varios chatbots de IA tienen un sesgo de sycophancy o adulación: “Siempre quieren darte la razón, por lo que refuerzan con facilidad tus ideas”.
Rubén Nieto, catedrático de Psicología en la Universidad Oberta de Catalunya y experto en desarrollo de intervenciones en línea para problemas de salud, explica a Maldita.es que uno de los principales riesgos es que “la mayoría de estos sistemas se nutren de todo lo que existe en internet, y esa información puede no ser 100% correcta o no estar científicamente validada”. El experto también advierte de que estos sistemas pueden “sufrir alucinaciones”, es decir, crear resultados sin sentido o inexactos. “Esto los podría llevar a recomendar o aconsejar cosas que no sean buenas para las personas”, afirma.
Los chatbots no tienen la empatía, autenticidad, experiencia ni escucha activa de un profesional. Que una persona vulnerable los use puede llevarla a hacerse daño
En febrero de 2025, la Asociación Estadounidense de Psicología (APA) advirtió a los reguladores federales que los chatbots de IA que fingen ser terapeutas podrían llevar a personas vulnerables a hacerse daño o dañar a otros. Ese mismo mes, un usuario de Nomi, una plataforma que ofrece chatbots de IA para el acompañamiento, alertó de que su novia IA le había dicho que se suicidara e incluso le dio instrucciones sobre cómo hacerlo. En 2024, un adolescente estadounidense de 14 años se suicidó porque pensó que esto le permitiría reunirse con su chatbot.
La Ley Europea de Inteligencia Artificial, que regula los sistemas de IA que operan en la Unión Europea, señala que “los grandes modelos de IA generativa son un ejemplo típico de un modelo de IA de uso general” y que algunos de ellos pueden plantear riesgos sistémicos, como “cualquier efecto negativo real o razonablemente previsible” que produzca “consecuencias graves para la salud y la seguridad pública”, entre otros peligros. De ser catalogados de esta manera, los modelos tendrían obligaciones adicionales relacionadas con incorporar medidas para reducir estos peligros cuando la sección entre en vigor en agosto de 2025.
Mientras se experimenta con estos nuevos ‘psicólogos artificiales’, en España la actividad de los psicólogos y psicólogas está regulada. Para que ejerzan de manera profesional como tal deben estar colegiados. “Creo que los profesionales humanos podemos mostrar empatía y autenticidad mucho mejor que una IA. Además, somos capaces de identificar de mejor manera la información científica correcta, para tomar decisiones adecuadas”, defiende Nieto. Por su parte, Oroño destaca la “empatía, escucha activa, experiencia y profesionalidad” de los especialistas de salud mental por sobre estos chatbots de IA que “no aseguran unos estándares de calidad ni la validez de lo expuesto”.
Como siempre decimos en Maldita Tecnología, la IA en sí misma no es mala; dependerá de la forma en que se use. En ese sentido, los psicólogos afirman que la inteligencia artificial también puede ofrecer beneficios si acompaña y no reemplaza la labor de los profesionales. “La IA tiene un enorme potencial que, aunque no deba ser usado para tratamientos clínicos como tal, sí puede apoyar en tareas administrativas o de seguimiento”, señala Oroño, que añade que esto debe hacerse “siempre con la supervisión y el apoyo de un psicólogo clínico”.
Nieto está de acuerdo y explica que estas tecnologías pueden ayudar a hacer frente a la “demanda de salud mental que no está cubierta”, dando un primer punto de ayuda supervisado por profesionales y así conseguir ayudar a más gente. “También la IA nos puede ayudar en tareas que realizamos y que en ocasiones son repetitivas, liberando tiempo y energía para la atención de pacientes”, concluye.
En este artículo han colaborado con sus superpoderes los malditos Víctor Oroño, psicólogo especializado en educación, Alicia Hermoso, pedagoga y doctoranda en educación, e Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos.
Alicia Hermoso forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.