MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: el aumento de la desinformación y el odio en el nuevo Twitter, cómo Musk usa la IA para desinformar y cómo las Notas de la comunidad no son la solución

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditos y malditas! En Maldita.es siempre estamos oteando las redes sociales y las plataformas digitales para entender cómo se mueve la desinformación en ellas. Esta semana nos centramos en Twitter (ahora X) para analizar cómo usa su dueño, Elon Musk, la IA para desinformar y para otras cosas, y también qué mecanismos tiene la red social para evitarlo. Ya sabes, si te encuentras bulos de cualquier tipo pululando por ahí (y, en concreto, relacionados o hechos con inteligencia artificial), escríbenos a [email protected].

El aumento de la desinformación y el odio en el nuevo (ya viejo) Twitter

Desde que Musk adquirió Twitter (en 27 de octubre se cumplen dos años) y lo convirtió en X muchísimas cosas han cambiado. Una en la que estamos de acuerdo fact-checkers de todo el mundo es el aumento de la desinformación en la red social. “Aunque Twitter nunca ha hecho grandes esfuerzos para hacer frente a la desinformación, hay claramente un esfuerzo menos prominente en este momento. No se trata solo de la desinformación en sí, sino también del discurso del odio y otras formas de contenido manipulador”, dice la CEO de Maldita.es, Clara Jiménez-Cruz, para este reportaje en Poynter, donde otros expertos se expresan en la misma línea. “Básicamente, la impresión entre los fact-checkers en Europa es que la desinformación está más legitimada ahora en X, y no parece importarles”, añade Marina Sacristán, de Políticas Públicas. X tiene más de 500 millones de usuarios activos cada mes.

Hoy analizamos cómo se refleja todo esto en dos aspectos: las imágenes generadas con IA que comparte el propio Musk y las Notas de la comunidad, una de las novedades del nuevo X. (Otra cosa que ha cambiado, menos importante, es que el timeline se actualiza y desaparece como por arte de magia y de pronto te pierdes el tuit que querías leer. Brrgrggajsandsalsdalksa nos desquicia a muchos).

Legitimando y amplificando la desinfo y el odio a golpe de IA

Desde que lanzó la siguiente versión de Grok, la herramienta de IA de X que permite generar imágenes, Musk está usándola para crear contenidos y compartirlos en su red social. De sus tuits a veces se deduce que son imágenes falsas, pero otras veces no. El asunto es sobre qué crea esas imágenes: en línea con los miles de usuarios que han usado esta IA para generar imágenes violentas, vejatorias y sexualizadas de figuras políticas y famosas, él no está siendo menos.

Respondió a un tuit de Kamala Harris, la candidata demócrata a la presidencia de EEUU, con una imagen de ella con un uniforme rojo con el símbolo comunista y afirmó: “Kamala jura ser una dictadora comunista desde el primer día. ¿Puedes creer que lleve ese atuendo?”. El tuit de Musk tiene casi 84 millones de visualizaciones. También ha usado la IA para representar al juez que prohibió X en Brasil entre rejas, al escritor Stephen King en situaciones vejatorias, y ha contribuido a difundir la campaña desinformativa que dice que los inmigrantes haitianos "ilegales" se comen a las mascotas de los estadounidenses apoyándose en imágenes de animales generados con IA. 

Difundir sin contexto una imagen generada con inteligencia artificial entraña riesgos para la desinformación, pero que lo haga una figura pública como Musk, con 198 millones de seguidores en X, tiene doble efecto: el impacto se amplifica muchísimo y mucha gente lo legitima y replica. También autoriza el uso de la IA para promover el discurso de odio, según expertos y distintas investigaciones, como analizamos aquí.

Notas a pie de tuit que no son revisadas por fact-checkers y pueden desinformar

Mientras esto sucede en X, la plataforma mantiene una postura sobre la desinformación diferente a otras redes sociales: no permite a los usuarios denunciar el contenido publicado en la plataforma como desinformación. En su lugar, apuesta por las Notas de la comunidad, un sistema que apareció en 2023 que funciona con colaboradores que agregan contexto a tuits. En estas notas se refleja, si procede, si el tuit es falso o el contenido engañoso.

¿Cómo sabe X si procede o no incorporar una nota? Pues la plataforma no las modera y tampoco cuenta con un mecanismo interno de verificación para constatar su validez. Lo que hace es seleccionarlas si se califican como útil por suficientes colaboradores con “diversos puntos de vista”. Por ejemplo, si un colaborador que suele agregar notas a políticos con inclinación política de derechas y otro que lo hace con figuras de la izquierda votan como útil una misma nota, esto le dará más valor y la nota tendrá más posibilidades de ser mostrada, según X.

De nuevo, los expertos se muestran preocupados por los efectos que puede tener este sistema en la lucha contra la desinformación, ya que no se evalúan los conocimientos en verificación de los colaboradores, no hay fact-checkers profesionales detrás y las notas pueden usarse como un campo de batalla entre grupos enfrentados en las redes. Además, estas notas no llegan a todos los bulos: un análisis de Maldita.es sobre la desinformación en torno a las elecciones al Parlamento Europeo de este año descubrió que las notas solo aparecieron en el 15% de las publicaciones que fueron desmentidas por verificadores de hechos independientes. Imagina todo lo que quedó sin contexto y libre en X, aparentando ser real.

En tres bits

  • Encontrando con IA a la ‘famosa número 6’. Desde hace cinco años, unas 50.000 personas buscaban a otra. Trataban de identificar el rostro desconocido de una mujer estampado en una tela que vendía una empresa checa. Junto al rostro desconocido, el de famosos como Orlando Bloom o Brad Pitt sí identificables. Surgió así una comunidad en Reddit obsesionada con dar con su identidad, que se extendió por internet. La semana pasada, la encontraron gracias a (entre otros factores) inteligencia artificial y reconocimiento facial: era Leticia Sardá, una exmodelo española. En el País.

  • Ojo con analizar mis emociones durante un examen online. Ya te hemos contado con la vuelta al cole que la inteligencia artificial ya está presente en las aulas. Los alumnos la usan (no siempre con la mejor de las intenciones), pero también puede utilizarse para estudiar. En la Unión Europea lo saben y han incluido en la Ley de IA o AI Act (en vigor desde el 1 de agosto de 2024) las aplicaciones en el ámbito educativo de esta tecnología. La idea es limitar sus efectos negativos en los alumnos. Aquí tienes todos los detalles sobre cómo afecta esta ley a la educación. Por ejemplo, prohíbe en los países de la UE los sistemas de reconocimiento de emociones en centros de estudios, y limita e impone obligaciones a los sistemas de alto riesgo. Esto incluye aquellos que se usan para la admisión, evaluación y categorización de los alumnos, y los que se utilizan para detectar comportamientos prohibidos durante los exámenes virtuales, aquello que se volvió una necesidad durante la pandemia de la COVID-19 pero que sigue usándose hoy en día (se llama proctoring y tienes más info aquí). 

  • Pasos a la regulación de la IA en EEUU. Seguimos con IA pero nos vamos fuera de la Unión Europea para contarte que, en Estados Unidos, siguen buscando formas de poner coto al uso de la inteligencia artificial que se emplea para replicar a actores de Hollywood y crear deepfakes políticos. Un gobernador ha presentado varios proyectos de ley relacionados con la IA que darían a los actores más protección sobre sus imágenes digitales y lucharían contra la propagación de estos vídeos hiperrealistas creados con tecnología compleja (redes neuronales) en anuncios políticos, entre otras regulaciones.

¡Ah! Y un recordatorio. Usar ChatGPT para ver quién te sigue de vuelta en Instagram o (esto es lo último) buscar red flags en una conversación de WhatsApp con nuestro ligue... sí que puede ser una red flag. Compartir este tipo de contenidos puede afectar a tu privacidad, porque la IA de OpenAI puede recoger nuestra información personal y compartirla con terceros. En este vídeo y en este artículo más información.

@malditobulo ¿Has pedido a ChatGPT que se burle de ti o que te diga quién te ha dejado de seguir? Esta IA puede recoger tu información personal y compartirla con terceros #tips #sabiasque #howtotiktok #consejos #chatgpt #toxica ♬ 复古节奏步伐 Vintage Retro Soul full - Piranhasound

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.