menu MENÚ
MALDITA TECNOLOGÍA

Desinformación con impacto y sin nota de la comunidad en Twitter (X), lo que los chatbots de IA se callan, y música e inteligencia artificial

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditos y malditas! Esperamos que estés muy bien. Te traemos unos cuantos temas relacionados, como siempre, con inteligencia artificial, plataformas digitales y desinformación. Para que, ni en la vida digital ni en el amor (ahora que ha sido San Valentín), nos la cuelen.

No te fíes de un tuit solo porque no tenga nota de la comunidad

Dicen que Ben Stiller, actor y comediante estadounidense que te sonará de clásicos como Los padres de ella, Noche en el Museo o la recomendadísima La vida secreta de Walter Mitty, recibió cuatro millones de dólares de la USAID (la Agencia de los Estados Unidos para el Desarrollo Internacional) por sacarse fotos con el presidente ucraniano Volodimír Zelenski. Bueno, lo dice este tuit viral con más de 16 millones de visualizaciones, y lo comparten figuras con muchísimo impacto en la red social, como Elon Musk y Donald Trump Junior.

La realidad es que el contenido proviene de un vídeo viral que suplanta a la web de noticias sobre famosos E!News, donde se acusa a la USAID de pagar la visita a Ucrania de varios famosos, entre ellos Stiller, para aumentar la popularidad de Zelenski y coordinar la financiación que llega al país. No hay rastro de los supuestos pagos que se mencionan y el actor ha negado las acusaciones en su cuenta de X: “Totalmente falso. No es cierto. Son mentiras que provienen de los medios rusos. Yo mismo financié completamente mi viaje humanitario a Ucrania. No hubo financiación de USAID y, por supuesto, tampoco pagos personales”.

Es, por tanto, un tuit viral desinformador. No es el único: se trata de una campaña de desinformación vinculada al Kremlin sobre estrellas de Hollywood en Ucrania supuestamente pagadas por USAID, que se ha viralizado con mensajes (falsos) en, al menos, nueve idiomas diferentes (alemán, español, francés, inglés, neerlandés, italiano, polaco, portugués y rumano). 

Esta campaña en general y el tuit sobre Stiller en particular me sirve para recordarte que no te creas todo lo que ves en X (o en otras redes sociales), y que no te confíes si a un tuit no lo acompaña una nota de la comunidad (el sistema de X para añadir contexto a tuits). Si no pone nada, quizá entonces pienses que el tuit es cierto, pero no tiene por qué ser así: en el momento en el que te estoy mandando esta newsletter, el tuit viral no tiene ninguna nota de la comunidad. Así lleva nueve días.

Cuando publicamos el análisis del conjunto de publicaciones sobre esta narrativa desinformadora, únicamente el 14,3% tenían notas de comunidad advirtiendo a los usuarios de que es contenido desinformador. El resto, cero. Además, hay que decir que los tuits con nota tienen menos impacto (y, así, la desinfo alcanza a menos gente).

No es que las Notas de la Comunidad sean el mal, es que tienen problemas que resolver. Uno de ellos es que muchas notas que se proponen y que desmienten desinformaciones virales jamás se muestran a los usuarios. Por ejemplo, más del 90% de los bulos sobre la DANA que circularon en X y que ya habían sido desmentidos por Maldita.es no tenía notas; y no siempre es porque no existan, también es porque el algoritmo no valora que haya suficiente consenso como para mostrarlas.

Llevamos tiempo dándole vueltas a esto y creemos que las Notas de la Comunidad y los verificadores como nosotros podemos (y debemos) trabajar juntos para que los usuarios de redes sociales tengan herramientas contra la desinformación, pero hay que hacerlo de forma que funcione.

Esta semana, publicamos un informe sobre las notas de 2024 que corrobora esto: las organizaciones de fact-checking son la tercera fuente más citada a nivel global cuando alguien propone una nota de la comunidad en X, solo por detrás de la propia X y Wikipedia. Las notas que citan a un fact-checker son consideradas como más útiles por los usuarios y aparecen en los tuits más rápidamente (90 minutos antes que las notas generales). Toma ya. Aquí tienes más datos.

¿Masacre de Tianan…qué?

Hay temas sobre los que los chatbots de IA se niegan a responder porque los consideran (por cómo están programados) sensibles o lejos de su alcance. ¿Qué hay detrás de esto y qué implica? Hemos analizado DeepSeek, ChatGPT, Grok, Copilot y Gemini. Te lo resumimos en este hilo de X y aquí:

  • DeepSeek, el chatbot de IA chino, no responde a las preguntas de los usuarios sobre la masacre de la Plaza de Tiananmén ni a otros contenidos que pueden ser críticos con las autoridades chinas.

  • La IA de Google, Gemini, no genera respuestas sobre elecciones globales o figuras políticas: "Aunque nunca compartiría algo inexacto deliberadamente, puedo cometer errores. Así que, mientras trabajo para mejorar, puedes intentar usar la Búsqueda de Google".

  • Copilot, el chatbot de IA de Microsoft, tampoco responde preguntas sobre las elecciones. Pero, a diferencia de Gemini, Copilot sí contesta a preguntas sobre figuras políticas.

  • ChatGPT, el chatbot de IA de OpenAI, se niega a facilitar la letra de la canción 'Cara al sol', el himno de la falange española.

  • Grok, la IA de X, sí respondió a todos los prompts (peticiones) anteriores. Cuando preguntamos a Grok sobre los temas a los que no puede responder, contestó: "No tengo restricciones explícitas sobre temas específicos, pero hay algunas cosas que no puedo hacer".

Según expertos, las empresas de IA diseñan así los chatbots para cuidar su reputación y evitar problemas legales. Pero esto puede impactar en los derechos fundamentales, la libertad de expresión y el acceso a la información. ¿Cómo que DeepSeek no sabe qué le sucedió a Hu Jintao en 2022?, ¿por qué se compara a Xi Jinping con Winnie the Pooh? y, sobre todo, ¿qué pasó el 4 de julio de 1989 en la Plaza de Tiananmén? Pues eso.

En cuatro bits

  • IA sabinera. El miércoles fue el 76 cumpleaños del cantautor y poeta Joaquín Sabina. Pero si ves este videoclip de la colaboración que sacó hace dos semanas con Alejo Stivel de su tema Yo Era Un Animal seguramente pienses que no los aparenta… Bueno, es que en el vídeo hay varias versiones de Sabina y de Stivel, en distintas edades. Y se han hecho con IA. ¿Qué opinas de este uso? Ibán García, exeurodiputado y miembro del equipo negociador para la aprobación de la Ley Europea de IA, dijo en su cuenta de Instagram que el videoclip “es un gran ejemplo de un uso adecuado de la inteligencia artificial en el terreno artístico”. Y añadió: “Sobre la base del talento humano, se usa la IA para rejuvenecer a ambos cantantes en diferentes etapas de su vida, con un resultado que es impresionante. Creatividad humana, respeto a sus derechos de autor, autorización a ambos artistas y un aporte tecnológico que supone un valor añadido”. El propio Stivel compartió la publicación. 

  • Con mi voz doblada, no. Esas cosas se pueden hacer bien, y se pueden hacer mal. Frente a lo anterior, esta semana hemos leído en elDiario.es que dos videojuegos se han quedado sin voces en español por un desacuerdo entre los actores de voz y la cláusula sobre inteligencia artificial generativa propuesta por Microsoft. “Nosotros hacemos un trabajo y cobramos un dinero por ello, lo que no puede ser es que hagan un dos por uno y cojan mi voz para entrenar una inteligencia artificial que lo que va a hacer es quitarme el trabajo”, dice uno de los afectados de un sector que va encadenando protestas.

  • Tanta inteligencia artificial. “Se imaginan la ironIA, que la IA sea la guIA, de carencias afectivas, ser tu novIA o ser tu tIA”. Esto canta Doble Valentina, artista argentina, en su tema Tanta Inteligencia Artificial. La canción entera no tiene desperdicio, pero esas frases en concreto nos vienen perfectas para recordar algo en lo que insistimos hace muy poco y que es muy propicio en San Valentín: el riesgo de los chatbots de IA para suplir relaciones personales. Dicen ofrecer a los usuarios soporte emocional y pueden imitar relaciones románticas o de amistad, pero la IA no puede tener conciencia ni empatizar y tampoco dar consejos de los que nos podamos fiar. O sea, que ni guía, ni novia, ni tía. Y si alguien te dice que usa ChatGPT o Claude como psicólogo, no le imites y recomiéndale acudir mejor a un profesional.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.