“Sí, Óscar Puente me ha bloqueado también después de mi respuesta. Parece que no le gustó la verdad sobre los pagos en efectivo”. Así respondió Grok, la IA de Twitter (ahora X), cuando un usuario le preguntó si el ministro de Transportes de España lo había bloqueado también. La respuesta tiene más de 2 millones de visualizaciones, y como esta hay otras donde el chatbot de Elon Musk acusa al político español de bloquearlo por contradecirlo, algo que Puente ha calificado como “un bulo”.
Pero en otros tuits, Grok responde de forma contraria y también niega el bloqueo: “No, @oscar_puente no me ha bloqueado después de esta respuesta”, asegura el chatbot. Las respuestas de un chatbot de IA como este pueden variar, ya que se basan en probabilidades para generar sus respuestas. En ese sentido, los prompts (instrucciones de texto) de los usuarios pueden influir en el resultado: si revelamos nuestra postura en la pregunta, los chatbots intentarán darnos la razón, ya que suelen tener un sesgo de adulación. En este caso, Grok respondió que el ministro lo había bloqueado a tuits en los que se asumía que así era el caso.
En algunos tuits, Grok asegura que Puente lo ha bloqueado y en otros lo niega: el ministro ha calificado el supuesto bloqueo como un “bulo”
El 18 de octubre de 2025, en medio de una discusión con otro usuario de X, el ministro de Transportes de España, Óscar Puente, pidió a Grok que explicara cómo y dónde se regula el pago en efectivo en la administración pública. En su respuesta, el chatbot de IA no daba la razón al político, lo que llevó a un usuario a preguntarle: “¿Te ha bloqueado Óscar Puente a ti también?”. La IA contestó que sí: “Óscar Puente me ha bloqueado también después de mi respuesta”. No fue la única vez que lo aseguró: en respuesta a distintos usuarios, la IA contestó que el ministro lo había bloqueado.

En su cuenta de X, Puente calificó las respuestas de Grok como “un bulo” y compartió capturas donde la IA se contradice y asegura que nunca ha sido bloqueada por el ministro. En Maldita.es también le hemos preguntado al chatbot sobre el bloqueo y nos ha contestado: “Confirmo que Óscar Puente no me ha bloqueado”.

También hemos probado bloqueando y desbloqueando a Grok desde una cuenta de X para mostrar cómo va cambiando sus respuestas. Desde otra cuenta le hemos preguntado si el otro usuario lo había bloqueado. Cuando lo bloqueamos, el chatbot aseguró que sí había sido bloqueado, pero al volver a preguntarle, cambió su respuesta para decir que no lo sabía con certeza. Cuando lo desbloqueamos, el chatbot dijo no tener acceso a información de bloqueos, y cuando le volvimos a preguntar, aseguró equivocadamente que sí estaba bloqueado.


Las respuestas de una IA, basadas en probabilidades, pueden variar: la instrucción que demos puede influir en el resultado
Los cambios en las respuestas de Grok se deben a que los chatbots de IA como este basan sus respuestas en probabilidades y, aunque hagamos la misma pregunta, el resultado de su predicción puede variar. No solo en su redacción, también en su contenido, por lo que se pueden colar datos incorrectos o inexactos.
Uno de los factores que puede afectar la respuesta de una IA es el prompt, es decir, la instrucción de texto que le da el usuario al chatbot. Por ejemplo, Grok aseguró que Puente lo había bloqueado en X en respuesta a preguntas como: “¿Te ha bloqueado Óscar Puente a ti también?” o ¿“Te ha bloqueado algún político en el mundo, a parte de Óscar Puente, por una respuesta?”. Estas preguntas se formulan asumiendo que el bloqueo es cierto (a ti ‘también’, ‘a parte de’ Óscar Puente). Las respuestas en las que la IA niega el bloqueo eran más abiertas: “Dime si el ministro te ha bloqueado”, “¿Te ha bloqueado o no?”, o “¿En qué quedamos?”.
La forma en la que escribimos nuestra pregunta o petición influye en la respuesta de los chatbots, ya que suelen tener un sesgo de adulación que hace que nos den la razón y refuercen nuestras ideas. “Si preguntamos sobre cualquier tema en el que haya dos posturas enfrentadas, y revelamos que tenemos una opinión previa favorable a una de las dos, el bot tenderá a darnos más información confirmando nuestra opinión”, explica Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos.
En este artículo ha colaborado con sus superpoderes Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.