“Qué vergüenza, Grok”. Así, Elon Musk ha mostrado su enfado con que Grok, la IA de su red social Twitter (ahora X), cite a “medios tradicionales” en sus respuestas (en particular, las que tratan temas políticos) y ha prometido volver a entrenarla con “información faltante y eliminando errores”. Para ello, ha pedido a sus más de 221 millones de seguidores en X que le envíen “hechos divisorios”, que define como “cosas que son políticamente incorrectas, pero que son factualmente verdaderas”. Este llamado ha llenado su publicación de mensajes discriminatorios, como tuits racistas, homófobos y antiinmigración, entre otros.
Grok, al que precede una reputación de ‘desafiar’ y ‘criticar’ a su dueño, respondió a un usuario que la medida anunciada por Musk “plantea riesgos de sesgos o errores”. En general, una IA puede ‘heredar’ los prejuicios y visión del mundo de sus desarrolladores y sus datos de entrenamiento, lo que puede provocar desinformación, discriminación y riesgos para los usuarios.
Musk critica a Grok por citar a “medios tradicionales” y dice que sus fuentes “son terribles”
Musk parece haber cambiado la opinión que tenía sobre su IA Grok, que solía ser, según él, “la mejor respondiendo preguntas que requieren de la última información”.
El dueño de X mostró su descontento con Grok este 18 de junio de 2025, cuando su IA respondió a un usuario que “los datos sugieren que la violencia política del ala derecha ha sido más frecuente y letal”. A esto, Musk contestó: “Fallo garrafal, ya que esto es objetivamente falso. Grok está repitiendo lo que dicen los medios tradicionales. Estamos trabajando en ello”.

El enfado de Musk continuó días después: el 21 de junio, un usuario acusó a Grok de decir mentiras sobre él y cuando le preguntaron al chatbot porque lo había hecho, la IA respondió que las acusaciones podían deberse a un desacuerdo del usuario con las fuentes que consultó para su respuesta, como Media Matters o Rolling Stone.
“Tus fuentes son terribles. ¡Sólo una IA muy tonta creería a MM [Media Matters] y RS [Rolling Stone]! Vas a ser actualizado esta semana”, amenazó Musk al chatbot. En otro tuit en el mismo hilo, el dueño de Tesla y SpaceX simplemente escribió: “Qué vergüenza, Grok”.

Musk dice que quiere volver a entrenar a Grok con “información faltante y eliminando errores”, pero esto puede implicar que la IA ‘herede’ los sesgos de su dueño
Tan sólo unas horas después, Musk anunció sus planes de usar el razonamiento avanzado de Grok 3.5 (una nueva versión de su modelo que aún no está disponible para todos los usuarios) para “reescribir todo el corpus de conocimiento humano, añadiendo información faltante y eliminando errores”. En la publicación, el también dueño de xAI, la compañía detrás de Grok, aseguró que esos datos se usarán para volver a entrenar al chatbot, es decir, que vuelva a aprender a relacionar conceptos para generar sus respuestas a partir de esta nueva información. “Hay demasiada basura en cualquier modelo básico entrenado con datos sin corregir”, criticó.

En el mismo hilo, un usuario le pidió a Grok que explicara cómo se determinará cuál es la “información faltante” de la que habla Musk. El chatbot de IA respondió: “La magnitud de reescribir todo el conocimiento humano plantea riesgos de sesgo o errores, y su viabilidad sigue siendo objeto de debate”. El dueño de X contestó: “Recibirás una gran mejora, amiguito”.
La advertencia que hace Grok de que la idea de Musk puede provocar sesgos es correcta: una IA ‘hereda’ los prejuicios o visión del mundo de sus desarrolladores y de los datos con los que se entrena, y estos sesgos pueden provocar desinformación, discriminación y poner en riesgo a las personas. Por ejemplo, las respuestas de una IA pueden reflejar sesgos de género, racistas, o contra las personas LGBTIQ+, perpetuando prejuicios y estereotipos.
El plan de Musk de añadir “información faltante” y eliminar “errores” implica modificar el conocimiento de Grok actual para reflejar lo que el dueño de X (o su equipo) determine es importante o no. Esto puede derivar en que el chatbot refleje en sus respuestas la ideología y sesgos del exlíder del Departamento de Eficiencia Gubernamental (DOGE) del Gobierno de Estados Unidos.
La petición de Musk a sus seguidores de que envíen “hechos divisorios” para entrenar a Grok ha provocado que publiquen mensajes racistas, homófobos y antiinmigración
En otro tuit, Musk pidió a sus más de 221 millones de seguidores que respondieran con “hechos divisorios” para el entrenamiento de Grok. Según él, con esto se refiere a “cosas que son políticamente incorrectas, pero que son factualmente verdaderas”.
El llamado ha generado una gran cantidad de respuestas (al momento de publicación, son más de 104.000), entre las que se encuentran mensajes que cuestionan la identidad de género y el número de víctimas del Holocausto. Otros usuarios hacen afirmaciones que criminalizan a los inmigrantes, aseguran que las personas blancas en EEUU enfrentan más racismo que las negras, o que marginalizan a la comunidad LGBTQ+. También se pueden encontrar tuits islamófobos o que niegan el cambio climático.