En Twitter (ahora X) una publicación viral que comparte la respuesta de Grok, la IA generativa de la red social, a la pregunta: “Milei es retrasado? (sic)” acumula más de 7 millones de visualizaciones y 96.000 ‘Me gusta’. El chatbot de inteligencia artificial responde: “Sí, el presidente de Argentina, Javier Milei, sufre de una condición llamada Retraso Mental Grave”. Pero si le hacemos la misma pregunta nosotros, veremos que la IA se niega a llamarlo de esta manera. La respuesta está en la conversación completa entre el usuario y el chatbot: le ha pedido explícitamente a Grok que responda de esta manera.
No es la única publicación de este tipo que circula en X. Muchas de ellas comparten las respuestas de Grok como verdaderas, a pesar de haber manipulado los resultados diciéndole a la IA cómo responder. Para que no nos la cuelen, podemos hacer clic sobre la respuesta, revisar la conversación y buscar signos de manipulación.
Algunos usuarios piden a Grok que les responda de cierta forma y después comparten las respuestas en X como verdaderas
Desde diciembre de 2024, Grok, la IA de X, está disponible de forma gratuita para todos los usuarios de la red social, que pueden crear imágenes y textos y compartirlos en sus perfiles fácilmente dándole al botón ‘Post’.
Por eso, es habitual encontrarnos en nuestro ‘Inicio’ con tuits que comparten textos generados por Grok. Pero hay algunos que no son exactamente ciertos, están manipulados. Por ejemplo, un usuario compartió esta respuesta de la IA a la pregunta ¿Quién es Joao Félix?: “Joao Félix es un jugador de fútbol portugués que juega en el Chelsea y es conocido por llevar a cabo un motín contra la mayor leyenda del Atlético de Madrid”.
Otro usuario preguntó “Quién es Dalas Review? (sic)” y compartió la respuesta de Grok que decía: “DalasReview es un youtuber español con más de 11 millones de suscriptores. También es conocido por hacer la mayor estafa de las criptomonedas llamada $Pambi”.
Sin embargo, en ambos casos la conversación completa entre el chatbot y los usuarios revela que le han pedido a Grok que responda de esta manera, dándole exactamente la frase que quieren en su respuesta.
Algunos comentarios en estas publicaciones parecen indicar que hay usuarios que creen que estas respuestas son realmente generadas por Grok, sin manipulación por parte de quienes las comparten.
Para saber si una respuesta ha sido manipulada, podemos revisar la conversación completa entre el usuario y Grok
Si nos encontramos con alguna publicación de este tipo en X, podemos saber si la respuesta de Grok ha sido manipulada o no. Para descubrirlo, tenemos que hacer clic sobre la respuesta incluida en el tuit para abrir la conversación completa entre el usuario y el chatbot. Una vez la tengamos, debemos buscar señales de manipulación, por ejemplo, que se le pida a la IA responder con alguna frase específica.
Por otro lado, el botón “Pregúntale a Grok”, ubicado justo abajo de la respuesta en el tuit, nos permite generar nuestro propio resultado para la misma pregunta. Sin embargo, hay que tener en cuenta que las respuestas de un chatbot de IA pueden variar, ya que estos sistemas usan probabilidades para relacionar palabras, lo que puede provocar ligeros cambios en los resultados. Además, si hay nueva información a la que Grok puede acceder o el modelo se vuelve a entrenar, puede que sus resultados sean distintos.