Desde que la IA de Twitter (ahora X) está disponible de forma gratuita para todos los usuarios de la red social, su dueño, Elon Musk, ha tuiteado por lo menos 40 veces mensajes insistiendo en usarla, con 504 millones de visualizaciones en total. En ellos, anima a sus seguidores a subir documentos e imágenes (incluso con información sensible, como datos sanitarios), probar el modo de voz y utilizar el chatbot de IA como un buscador (aunque no lo es).
Los expertos en IA consultados por Maldita.es indican que esto permite a xAI, la compañía de Musk detrás de Grok, obtener datos valiosos para su entrenamiento. A partir de ellos, la IA podría ofrecer un servicio más personalizado y especializarse en ciertos temas. Pero advierten de que puede provocar que Grok termine reflejando la ideología y los sesgos de los usuarios de X (y, en concreto, los seguidores de Musk), lo que puede generar polarización. También indican que las invitaciones reiteradas de Musk a usar el modo de voz se deben a que los datos de audio son más difíciles de obtener que otros.
Que se utilice nuestra información con estos fines conlleva riesgos de privacidad. En X, podemos oponernos a que nuestros datos se usen para entrenar a Grok.
Desde que Grok es gratis, Musk ha tuiteado unas 40 veces (con 504 millones de visualizaciones) animando a usar Grok y compartir documentos, imágenes y audios con su IA
En enero de 2025, Elon Musk advirtió de que “básicamente, hemos agotado la suma acumulada de conocimientos humanos para el entrenamiento de la inteligencia artificial”. Investigadores también han mencionado un agotamiento de los datos obtenidos a partir de internet que se usan para entrenar los sistemas de IA. A pesar de que Musk sugirió que la respuesta es optar por datos sintéticos (generados por los mismos modelos de IA), algo que puede provocar autofagia y peores resultados en los modelos, sus tuits parecen indicar un plan diferente.
Desde que Grok comenzó a estar disponible de forma gratuita para todos los usuarios el 6 de diciembre de 2024, Musk ha publicado 40 mensajes, con más de 504 millones de visualizaciones (a 7 de marzo de 2025), animando explícitamente a sus más de 219 millones de seguidores a probar el chatbot de IA. “Prueba el modo de voz de Grok, es increíble”, “Sube imágenes a Grok. Te sorprenderá lo que puede averiguar”, “Descarga la aplicación de Grok”, son algunos ejemplos. De estos mensajes, hay 11 en los que el líder del Departamento de Eficiencia Energética (DOGE) del Gobierno de EEUU invita a probar el modo de voz de Grok, disponible en la versión Premium de X. También llamó a subir documentos e imágenes al chatbot ocho veces, y a usar Grok como buscador en tres ocasiones.
Que las personas utilicen Grok permite obtener datos valiosos para su entrenamiento, pero puede hacer que el chatbot refleje la ideología de los usuarios y generar polarización
Los expertos en inteligencia artificial consultados por Maldita.es coinciden en que el objetivo de estos llamamientos es que permiten a Musk obtener datos valiosos para entrenar Grok. Efectivamente, esto lo pueden hacer: la Política de Privacidad de xAI indica que los contenidos de los usuarios (como lo que comparten con el chatbot) se pueden usar para mejorar los servicios. “Está pidiendo que cada persona alimente a Grok con la información que considere relevante, interesante o curiosa, sin importar si es privada sensible, fiable, seria o políticamente incorrecta”, explica Mònica Casabayó, directora académica de Transformación del Liderazgo e Impacto Social en ESADE, doctorada en la aplicación de IA al marketing y maldita que nos ha prestado sus superpoderes.
Dentro de esa información sensible, están los documentos médicos e imágenes sanitarias, que Musk pide directamente y que, como nos explicó Roberto Sánchez, médico experto en protección radiológica y maldito, le vienen muy bien para obtener imágenes reales y actuales.
“Los documentos, imágenes, prompts [instrucciones de texto] e incluso la voz de los usuarios suelen considerarse datos más valiosos, porque contienen información rica y contextual que puede usarse para diversos fines, como para la personalización, el entrenamiento de la IA y con fines de marketing o seguridad”, detalla Patricia Acebes, economista especializada en IA y blockchain, estudiante predoctoral de la Universidad de Alcalá y maldita que nos ha prestado sus superpoderes. La experta señala que, por ejemplo, un documento o imagen puede contener información detallada sobre las preferencias, hábitos, identidad y conocimientos específicos de un usuario.
A partir de estos contenidos, la herramienta irá aprendiendo y avanzando. Casabayó lo compara con el aprendizaje de un niño, que construye su comportamiento y valores según lo que ve, escucha, sus referentes, etc. En ese sentido, quiénes proactivamente alimenten a Grok con datos “serán los que tendrán más impacto en su proceso de aprendizaje”, indica. Por lo mismo, David Arroyo, economista digital y maldito que nos ha prestado sus superpoderes, advierte de que esta información puede permitir entrenar a Grok con “información sesgada hacia el enfoque y público objetivo de usuarios que usan X” (y, en concreto, las masas de seguidores de Musk).
Usar estos datos, según el experto, permite “reducir significativamente el coste de los procesos de entrenamiento” y, a su vez, “posiciona el contenido en el punto ideológico al que Musk quiere llegar”. Casabayó afirma que esto puede hacer que Grok se especialice en algunos temas, pero también tiene sus efectos negativos: “Puede generar una mayor polarización y posibilidad de manipulación, además de sesgos”.
El modo voz permite obtener datos de audio (más escasos) para enseñar a Grok a entender matices y adaptar sus voces a nacionalidades, géneros y edades distintas
De las 40 publicaciones analizadas por Maldita.es, Musk pidió en 11 de ellas que los usuarios utilizasen el modo de voz de Grok, accesible sólo para los usuarios Premium de X (de pago). En este, las personas pueden interactuar con el chatbot dándole instrucciones en voz alta, lo que permite recoger muestras de sus voces.
¿Qué tienen de especial los datos de audio? “Son más difíciles de conseguir que otro tipo de datos, como pueden ser las imágenes o el texto”, indica Acebes. La especialista lo atribuye a que la mayoría de las interacciones digitales se hacen a través de texto, lo que hace que las muestras de voz sean menos comunes y limita la cantidad disponible de ellas para entrenar la IA.
“Los datos de audio ayudan a mejorar el procesamiento de lenguaje natural y la capacidad de una IA para entender matices como entonación, emociones y contexto. Con suficiente entrenamiento, una IA puede sonar más natural y adaptarse mejor a las respuestas humanas”, afirma Acebes. Todo esto permite ofrecer a los usuarios una experiencia más personalizada -para lo bueno, y para lo malo. “[Estos datos] pueden servir como base para, haciendo uso de algoritmos de IA generativa, confeccionar un sistema de interacción sonoro adaptado a nacionalidad, género, edad, diversidad visual y otras características”, señala Arroyo.
Además de mejorar Grok, el economista explica que “no es descartable que [Musk] haga uso de estas voces y expresiones para incorporarlas como un servicio dentro de sus otros productos”. Por ejemplo, dice que podrían incorporarse en un coche eléctrico de Tesla, una de las otras empresas de Musk, para que hable en nuestro propio idioma y dialecto. Acebes está de acuerdo: “Tienen un potencial para nuevas aplicaciones que podrían revolucionar la atención al cliente, la educación, el entretenimiento y más”.
El uso de nuestros datos, protegidos por la ley, conlleva riesgos de privacidad. En X, podemos negarnos a que se utilice nuestra información para entrenar a Grok
Para llegar a desarrollar nuevas aplicaciones, Musk habrá usado, gratis, nuestros datos. Pero su utilización con estos fines conlleva riesgos de privacidad, ya que pueden permitir extraer información sobre nosotros. “En el momento en que nuestros datos forman parte de un modelo algorítmico, dejan de estar controlados por nosotros y quedan a merced de lo que genere este modelo”, indica Judith Membrives, presidenta de Algorights a Maldita.es. La experta en política digital añade que además del conflicto sobre la protección de datos, estas decisiones generan un problema de consentimiento y confianza con las empresas.
En ese sentido, los datos de los usuarios están protegidos por el Reglamento General de Protección de Datos (RGPD). Si ya hemos compartido nuestra información con un chatbot de IA, podemos ejercer nuestro derecho a la supresión. Sin embargo, el proceso es complicado en el caso de los sistemas de inteligencia artificial. “Por un lado, no podemos tener la certeza de que efectivamente hayan eliminado esa información, y, por otro, es complicado que una información sea ‘suprimida’ como tal en un sistema de IA”, dice Samuel Parra, abogado experto en protección de datos, a Maldita.es.
Si aún no hemos compartido información relevante con Grok o queremos que, de ahora en adelante, el chatbot no utilice nuestras interacciones, entradas y resultados para entrenarse, podemos desactivarlo entrando a ‘Configuración’, ‘Privacidad y Seguridad’ y, después, ‘Grok’.

En este artículo han colaborado con sus superpoderes los malditos Mònica Casabayó, directora académica en ESADE, Patricia Acebes, economista especializada en IA y blockchain, David Arroyo, economista digital, y Roberto Sánchez, médico experto en protección radiológica.
Mònica Casabyo y Patricia Acebes forman parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.