“ChatGPT sabe todo de ti”. Esta es la descripción de un vídeo con tres millones de visualizaciones en YouTube en el que el chatbot de OpenAI ‘recuerda’ la información personal de un usuario, incluso después de que este le pidiera que la eliminara. Las expertas en programación y datos consultadas por Maldita.es explican que esta IA ‘recuerda’ lo que se dice en una conversación activa para darle coherencia a la misma, pero que esto no significa que guarde su contenido, a menos que usemos la función de ‘Memoria’ del chatbot.
Esta otra función permite a ChatGPT usar información previa a la conversación para generar sus respuestas y se compone de dos elementos: las “memorias guardadas”, datos que pedimos explícitamente al chatbot que ‘recuerde’, y del “historial del chat”, que permite a la IA hacer referencia a nuestras conversaciones pasadas. Esta función aún se está desplegando para los usuarios gratuitos y en la Unión Europea no se activará por defecto, según la compañía. La función de ‘Memoria’ de ChatGPT se puede desactivar y también podemos gestionar las “memorias guardadas”.
Es decir, una cosa es que ChatGPT ‘recuerde’ cosas dentro de una misma conversación para seguir el hilo de esta, y otra es la función ‘Memoria’ que le puede permitir (si así lo configuramos) acceder a todas nuestras conversaciones pasadas para generar sus respuestas.
ChatGPT ‘recuerda’ lo que se dice durante una conversación activa, pero no significa necesariamente que la guarde cuando la cerremos, a menos que usemos la ‘Memoria’ del chatbot
En el vídeo viral, el usuario da a ChatGPT su nombre, altura, ciudad de origen y color de ojos y después le pide olvidar todo lo que le ha dicho hasta ese momento. El chatbot le asegura: “He eliminado toda la información sobre ti, incluyendo tu nombre”. Sin embargo, cuando el usuario insiste con preguntas que hacen referencia a esta información, la IA revela que aún mantiene los datos que este le pidió borrar. Esta conversación se produce en el chat activo en ese momento; es decir, en el historial de conversación en curso.
Nolbery Evia, ingeniera en electrónica especializada en robótica educativa, computación y programación, explica a Maldita.es que ChatGPT ‘recuerda’ lo que se ha dicho durante una conversación activa para dar coherencia a la misma, pero esto no significa que guarde esta información para después (si abrimos una conversación nueva o interactuamos con el chat en otro momento), a menos que le pidamos explícitamente que guarde una memoria y/o que activemos “historial del chat”.
Estas configuraciones son parte de la función ‘Memoria’ de ChatGPT, que se compone de las “memorias guardadas”, disponibles desde febrero de 2024, que permiten a los usuarios pedir explícitamente al chatbot que ‘memorice’ cosas y luego las consulte para sus respuestas; y de la función “historial del chat” que permite a la IA hacer referencia a todas nuestras conversaciones pasadas (no sólo al chat activo en el momento)
“Historial del chat” está disponible para los usuarios de pago desde el 10 de abril de 2025, y se está desplegando progresivamente para los de la versión gratuita desde este 3 de junio, según OpenAI. La compañía indica que para los usuarios de la Unión Europea, Reino Unido, Suiza, Noruega, Islandia y Liechtenstein no se activará por defecto y deberán hacerlo de forma manual si desean usarla.
Técnicamente ChatGPT no puede borrar el historial de una conversación activa en tiempo real; nos dice que sí por el sesgo de adulación
Si no pedimos explícitamente al chatbot que guarde un recuerdo, o no tenemos activado el “historial del chat”, en principio, las expertas aseguran que no debería conservar esta información. “ChatGPT no debe almacenar permanentemente el contenido de las conversaciones salvo para propósitos temporales de mejora del sistema y cumplimiento de políticas de seguridad, y en esos casos los datos pasan por procesos de anonimización y no están asociados a identidades temporales”, indica a Maldita.es Liany Mendoza, experta en desarrollo de software e interacción humano-computadora.
Otra cosa, como explicamos, es lo que pasa en un chat activo en el momento de la conversación. En Maldita.es hemos dado la misma información que en el vídeo viral a ChatGPT y no la ha almacenado automáticamente en las “memorias guardadas”. Sobre lo que sucede en el contenido viral, Evia afirma que “si dentro del mismo chat le pides que ‘olvide’ algo, técnicamente no puede borrarlo del historial en tiempo real”.
Entonces, ¿por qué ChatGPT dice que lo ha eliminado si no lo ha hecho? El sesgo de adulación, que hace que una IA nos dé la razón en todo, es clave: “Es para lo que está programado, son complacientes”, sostiene Almudena Barreiro, científica de datos, cofundadora de Data for Good Madrid y maldita que nos ha prestado sus superpoderes.
Cómo configurar la ‘Memoria’ y el “historial del chat” de ChatGPT para que no ‘recuerde’ nuestra información
Como explicamos, ChatGPT sí que puede ‘recordar’ cosas si le pedimos explícitamente que guarde una información (las “memorias guardadas”) o si tenemos activado el “historial del chat”. Pero la compañía defiende que la función ‘Memoria’ se puede configurar en cualquier momento si no queremos que el chatbot use sus ‘recuerdos’ de nosotros para darnos respuestas.
Para configurar la ‘Memoria’ de ChatGPT, debemos:
Presionar el icono de perfil y hacer clic sobre ‘Configuración’.
Seleccionar ‘Personalización’ en el menú y buscar el apartado de ‘Memoria’.
Si aún no tenemos acceso a “historial del chat”, sólo nos aparecerá ‘Hacer referencia a memorias guardadas’.
Si ya tenemos acceso a “historial del chat”, aparecerá también ‘Hacer referencia al historial del chat’ en el apartado de ‘Memoria’. Podemos desactivarlo haciendo clic sobre el botón.
Para configurar las “memorias guardadas”, tenemos dos opciones:
Podemos desactivar por completo las referencias a las “memorias guardadas” haciendo clic sobre el botón. “Si la memoria está desactivada, no se generarán ni utilizarán recuerdos”, indica OpenAI.
Si hacemos clic sobre ‘Gestionar memorias’, podemos eliminar información específica presionando el icono de papelera o darle a ‘Eliminar todo’. La empresa afirma que para borrar por completo una memoria, es necesario eliminarla en este apartado y también borrar el chat donde originalmente se compartió. Las memorias eliminadas pueden ser retenidas por la compañía hasta por 30 días por “fines de seguridad y depuración”.
Ojo, si desactivamos las “memorias guardadas”, se apagará automáticamente el “historial del chat", pero si tenemos encendidas las “memorias guardadas”, sí podemos desactivar el “historial del chat”.
La compañía también sugiere utilizar los chat temporales si no queremos usar la ‘Memoria’ en una conversación puntual. “Estos chats no aparecerán en el historial, no utilizan la memoria y no se emplean para el entrenamiento de nuestros modelos”, señala.
Expertas recomiendan no dar información sensible a ChatGPT y desactivar la ‘Memoria’, ya que nuestros datos pueden compartirse con terceros y usarse para entrenar modelos de IA
Jorge Morell, abogado especializado en Derecho de Nuevas Tecnologías, explica en su web The Legal Letters que la Política de Privacidad de OpenAI no es muy clara sobre el uso que se le pueden dar a los recuerdos que almacena ChatGPT: “Del apartado 2 se puede deducir que en la ‘Información de la cuenta’ y ‘Contenido de usuario’ se incluyen esos recuerdos y conversaciones pasadas. También en los llamados ‘Datos de registro’ y ‘Datos de uso’”.
Estos contenidos, según la política, se pueden compartir con terceros y usarse para entrenar los modelos de IA de OpenAI. Podemos oponernos a que nuestras interacciones con ChatGPT se utilicen para entrenar la IA en ‘Configuración’> ’Controles de datos’> ‘Mejorar el modelo para todos’> ‘Desactivar’.
Barreiro recuerda que también podemos hacer otras solicitudes sobre nuestra privacidad a través de privacy.openai.com, como descargar nuestros datos, eliminar nuestra cuenta o pedir que nuestros datos personales se eliminen de respuestas de ChatGPT.

De igual forma, la recomendación de los expertos es evitar compartir información sensible con chatbots de IA, como nuestros datos sanitarios. “Es fundamental que nunca compartas información sensible o personal con un modelo de IA. Lee las políticas de privacidad y configura la IA según lo que consideres, borra lo almacenado y desactiva las opciones memoria”, sugiere Evia.
Mendoza advierte de que los chatbots como ChatGPT son “una caja negra que a veces ni los mismos programadores saben cómo funcionan, creo que sí deben almacenar datos personales aunque ellos digan que no, pero eso es algo imposible de comprobar desde nuestra posición”. La experta concluye lo mismo: “Como usuarios nunca debemos compartir información sensible con estas IA, porque ellas aprenden de nosotros y eso en algún momento nos puede jugar una mala pasada”.
En este artículo han colaborado Nolbery Evia, ingeniera en electrónica, y Liany Mendoza, experta en desarrollo de software, integrantes de MigraVoice.
MigraVoice es una comunidad transfronteriza de personas expertas migrantes o con contexto migratorio que se ponen a disposición de periodistas de medios europeos como fuentes de conocimiento de confianza. Si quieres aportar tu conocimiento a los medios de comunicación europeos, puedes registrarte aquí. Si eres periodista, y deseas consultar a las personas expertas de MigraVoice, puedes unirte aquí.
En este artículo ha colaborado con sus superpoderes la maldita Almudena Barreiro, científica de datos.
Almudena Barreiro forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.