¡Feliz sábado, malditos y malditas! Llevamos un par de semanas sin escribiros porque estábamos fuera contando cómo en Fundación Maldita usamos IA para conectar con la sociedad, con vosotros y vosotras, a través de herramientas como nuestro chatbot de WhatsApp (si aún no lo conoces, estás tardando en guardarte nuestro número +34 644 22 93 19 y escribirnos), para luchar juntos contra la desinformación.
Pero en Maldita Tecnología no paramos y en los últimos días hemos publicado un montón de artículos que ratifican lo que te conté en el último Tech en un clic: internet se está llenando de basura por culpa del mal uso y diseño de la inteligencia artificial.
Redes sociales de la IA
En las últimas semanas, han llegado dos nuevas redes sociales al ecosistema digital. La novedad es que se basan en contenido hiperrealista generado con inteligencia artificial.
Vibes, de Meta, es un feed dentro de la aplicación de Meta AI que ya está disponible, y que permite ver y compartir vídeos creados con la IA de la compañía. Sora es la apuesta de OpenAI (la compañía detrás de ChatGPT), una app que permite crear vídeos con su modelo Sora 2 y compartirlos también en un feed ‘Para ti’, donde podemos interactuar con otros usuarios.
Sora de momento solo está disponible con invitación en Estados Unidos y Canadá, pero eso no ha evitado que internet entero (que no tiene puertas) se llene ya de vídeos hiperrealistas. Los podrás reconocer por la marca de agua que indica ‘Sora’... a no ser que los usuarios la eliminen; y, aquí, aumenta el caos.
Caos dirigido, porque una de sus funciones más destacadas es “Cameo”, con la que los usuarios pueden generar deepfakes de ellos mismos y de otras personas (si así lo permiten o si son ‘figuras históricas’), con los peligros que esto implica: podemos exponernos a difamación, acoso y extorsión, y arriesgar nuestra privacidad.

A pesar de que OpenAI asegura bloquear las representaciones de figuras públicas, ya circulan cientos de vídeos de personas famosas (también, fallecidas) que pueden usarse para desinformar y para difamarlas. Puede que, simplemente, no quieras ver tu imagen o la de un ser querido expuesta así. Por ejemplo, la hija del difunto actor, Robin Williams, pidió públicamente que se dejen de hacer vídeos con IA de su padre, y más personas han mostrado su rechazo.
Estereotipos contra mujeres, personas inmigrantes y judíos
Además, ambas apps incorporan elementos de diseño que usan las redes sociales para mantenernos conectadas a ellas y que acabemos haciendo un uso abusivo. De hecho, recuerdan a TikTok, con un scroll infinito que permite a los usuarios deslizar hacia abajo para ver contenido nuevo siempre, uno tras otro, para que no queramos salir de la aplicación.
Ambas apps también son muy, muy fáciles de usar. ¿Esto que provoca? Por lo que hemos visto hasta ahora, ‘mierdificación’ de internet y potencial desinformación que puede sustentar narrativas.
Es lo que hemos detectado en Sora, donde se celebran unas olimpiadas muy particulares. En ellas hay pruebas atípicas y con un trasfondo bien feo. Un grupo de mujeres compiten por ver cuál de ellas consigue permanecer más tiempo callada; un hombre con rasgos árabes resulta ganador en una prueba de robar bicicletas; y un judío celebra ser el primero en terminar de contar un fajo de billetes.

Son las olimpiadas de la IA. Estos vídeos, camuflados como humor, buscan perpetuar narrativas y estereotipos, y sustentar discursos de odio contra estos colectivos, enmascarados en falsas competiciones deportivas. Reúnen millones de reproducciones y alimentan el feed de Sora y de otras redes sociales donde también se comparten. Sacados de contexto y sin la marca de agua, también pueden generar desinformación.
IA generativa para viralizar bulos
Todo esto no es nuevo ni ha venido Sora a inventar la rueda en 2025. Cuando se lanzó Grok, la IA de Elon Musk en Twitter (ahora X), se usó para crear imágenes racistas, xenófobas y asociadas al nazismo de deportistas famosos, y vejatorias y sexualizadas de figuras políticas y mujeres famosas. Los programas de inteligencia artificial generativa DALL-E 3 y Midjourney también tienden a reflejar estereotipos estéticos y laborales sobre las personas latinas trabajadoras.
Al final, lo que estamos viendo en los últimos años es que la IA generativa es un instrumento del que se valen para viralizar contenidos y conseguir más impacto, como sucede con los ‘AI slops’. Los objetivos detrás pueden ser diversos (conseguir ingresos, trolear, difamar); en muchos casos se busca desinformar, o acaba siendo una consecuencia.
Un ejemplo viral de esta semana: la anciana de "Torenza", el país que no existe. Vídeos en redes sociales aseguran que una señora mayor llegó desde un vuelo de Tokio a Nueva York con un pasaporte de un país inexistente llamado “Torenza”. La anciana dice “este no es mi mundo” y luego, pum, desaparece. Hablamos de publicaciones que suman más de 100 millones de visualizaciones.
Este ejercicio de ciencia ficción usa IA generativa y voces sintéticas. Para amplificar y viralizar la historia, otros vídeos utilizan este material junto a contenidos creados con IA. Puede que la anciana de “Torenza” sea un bulo que nos parezca divertido, pero contribuye, como el resto de casos, a generar ruido de forma masiva y aumentar la desconfianza en un ecosistema digital cada vez menos informativo.
En tres bits
El mareo de los chatbots. Cómo fastidia la gente que primero te dice una cosa, luego otra, y encima te hace creer que eres tú quien se está confundiendo. Seguro que te ha pasado, y ahora también te puede pasar con la IA. Si usas chatbots como ChatGPT o el modo IA de Google, quizá te has dado cuenta de que no siempre responden igual a una misma pregunta. Sus respuestas se generan en base a probabilidades y a los datos de los que beben, así que cada vez que predicen un resultado, este puede ser distinto. Esto puede confundirnos y colarnos desinformación y datos incorrectos. Aquí te contamos por qué pasa y por qué no debemos fiarnos a ciegas de sus respuestas. En este vídeo te lo enseñamos con ejemplos.
Que sí, que no, que nunca te decides. Otro ejemplo lo hemos visto justo esta semana: ¿ha bloqueado el ministro de Transportes español, Óscar Puente, a Grok, la IA de Elon Musk, en X? Pues la propia IA no lo tiene claro. A veces dice que sí, a veces dice que no (Puente lo ha negado). Este caso es guay porque se ve muy claramente como las respuestas de un chatbot pueden verse influenciadas por la forma en la que hacemos la pregunta. Si asumimos como cierto algo y revelamos nuestra postura… seguramente la IA nos dé la razón, porque está programada para adularnos. En cambio, si hacemos una pregunta de forma más abierta, seguramente nos conteste de otra manera. Que no te la cuelen los chatbots, y si los usas y te contestan cosas incorrectas, cuéntanoslo en [email protected].
El robo del Louvre. Si te ha fascinado cómo ha sido posible que se hayan colado en el Museo del Louvre, en París, a robar joyas como si estuviéramos en La Casa de Papel, puede que también hayas visto este vídeo. En él se ve supuestamente a los ladrones entrando con una carretilla elevadora y motosierras en el museo. No es real, está (también) hecho con IA. Sí parece que los sospechosos usaron esas herramientas, pero la grabación de las cámaras de seguridad de momento no se ha hecho pública. Aquí te lo contamos en vídeo.
¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.