¡Feliz sábado, malditos y malditas! Creo que es prácticamente imposible que no sepas que ayer se publicó (oficialmente, porque antes se filtró) el nuevo disco de Rosalía, ‘Lux’. Han corrido y correrán en los próximos días ríos de tinta y vídeos donde se analiza su espiritualidad, desde la simbología religiosa, a las letras o la incorporación de un coro litúrgico. No tenemos aún claro a qué suena la fe según la cantante, pero sí que no es la única que anda haciendo contenidos relacionados con la religión: en redes sociales hay montones de representaciones de Jesucristo gracias al uso de IA generativa.
Jesús e IA, trá trá
Primero lo identificamos en Facebook con imágenes extrañas, y ahora en forma de vídeo en todas las redes sociales: a Jesucristo ya no solo se le representa en las iglesias, en estampas y en el cine, sino que hay vídeos donde se ve a un Jesús generado con IA haciendo las cosas más dispares. Estos contenidos acumulan millones de visualizaciones e interacciones.
Esta tendencia ha sido potenciada con Sora de OpenAI, que permite crear vídeos hiperrealistas con IA de forma facilísima y compartirlos con otros usuarios de forma aún más fácil (porque la propia plataforma es en sí misma una red social, y luego pueden saltar con un clic a TikTok o Instagram).
El resultado son estos vídeos en los que hay un Jesucristo estilo anime japonés teniendo batallas épicas con distintos personajes de películas o series de televisión, como Chucky o Goku de Dragon Ball Z, o un Jesucristo participando en competiciones de los Juegos Olímpicos (una tendencia que ya te contamos que se está usando para perpetuar narrativas y estereotipos sobre las mujeres, inmigrantes y judíos). En estos casos, Jesús camina sobre el agua o asciende hasta el cielo. Definitivamente la banda sonora de estos vídeos debería ser el nuevo disco de Rosalía.
Bromas aparte, nos hemos preguntado qué hay detrás de esto. Hay quien simplemente busca generar ingresos a través de ellos, ya sea monetizándolos o redirigiendo a los usuarios a otros sitios web. Pero, concretamente, ¿cuál es la necesidad de representar así a Jesús, por qué se hacen virales y triunfan estos contenidos creados con IA? La antropóloga Anaïs Madera nos ha dicho cosas interesantísimas, como que con ellos “conectan dimensiones que pensábamos que no se cruzarían: lo sagrado y lo cotidiano”, y una reflexión: “Antes, la fe se compartía en los templos o las calles; hoy, las redes sociales son nuevos espacios de encuentro y expresión espiritual”. Te invito a leer el análisis.
Periodistas que no son reales ni dicen la verdad
Más allá del sentir religioso o de los objetivos detrás, es difícil que alguien crea que los vídeos de Jesús participando en las Olimpiadas son reales. Lo que no es tan difícil es que nos la cuelen cuando usan IA generativa para representar a supuestas periodistas en informativos o en la calle narrando sucesos, y esto puede desinformar por varios motivos.
Se trata de vídeos que circulan en redes sociales que representan a periodistas (en su mayoría, mujeres) que relatan y muestran situaciones que no han ocurrido. Por ejemplo, transmitiendo en directo desde socavones por los que caen personas y coches, contenidos que ya hemos desmentido en otras ocasiones, como este que muestra a una supuesta reportera en Bariloche (Argentina), mientras un coche y una persona desaparecen dentro de un agujero en la calzada.
A pesar de que en los comentarios hay usuarios advirtiendo del origen sintético de estos contenidos, otros parecen no saber que han sido creados con inteligencia artificial. Expertos consultados por Maldita.es afirman que así aprovechan la credibilidad y el rol social de las periodistas como “aliadas y voces del público” para transmitir estos mensajes de forma convincente. Por ejemplo, China, Venezuela y el Daesh han usado estos vídeos con IA de periodistas para promover propaganda.
¿Y esto en qué puede derivar? Erosionar la confianza en los periodistas, medios de comunicación e instituciones, y contaminar aún más un ecosistema informativo en el que cada vez hay más basura y donde es más difícil saber qué es real y qué no.
Cuando la IA pone en peligro tu salud
No todo es IA generativa para crear vídeos falsos. Hay otras aplicaciones de esta tecnología que entrañan riesgos; algunos, directamente relacionados con nuestra salud: los sistemas de IA que se usan en el sector sanitario.
Diagnósticos que no llegan, tratamientos equivocados y diagnósticos negligentes, los sistemas de IA con fines médicos pueden tener sesgos que influyen negativamente en la atención que reciben personas históricamente discriminadas. Mujeres, personas racializadas y personas LGBTIQ+ son las víctimas habituales. Así lo advierten diversos estudios en los últimos años.
Si estos sistemas de IA se usan sin supervisión humana y se deja libre albedrío a estos sesgos, pueden darse situaciones con consecuencias graves en la salud de los pacientes. Por ejemplo, un cáncer de piel podría no ser detectado a tiempo en una persona racializada, poniendo en riesgo sus posibilidades de mejora; una mujer podría ser enviada a casa para automedicarse, aunque padezca una enfermedad grave; y una persona trans podría recibir una respuesta inexacta sobre su salud. Te detallamos todo con sus estudios aquí.
¿Y estos sesgos se pueden evitar? Al menos, se puede minimizar su impacto fomentando la diversidad en los equipos que desarrollan estos modelos y aplicaciones, trabajando en la explicabilidad de la IA, y no asumiendo que las respuestas generadas por una IA son neutrales o correctas, según nos han explicado expertos en inteligencia artificial.
En tres bits
Que no te la cuele Rosalía con falsas ofertas de trabajo. Hablando de Rosalía, ten cuidado porque la artista no está prometiendo que por comentar o dar ‘likes’ en vídeos de TikTok puedes ganar cientos de euros al día. Se trata de vídeos manipulados de ella y otras famosas, como Georgina Rodríguez, con los que intentan timarnos para que nos creamos ofertas de trabajo fraudulentas. Los timadores usan estos vídeos alterados digitalmente para tratar ser más convincentes. No caigas, aquí te contamos cómo evitarlo.
¿Una Wikipedia verificada con IA? Ojo cuidao. Elon Musk ha lanzado su propia Wikipedia: la Grokipedia, que usa su IA, Grok, para "verificar" los contenidos (cero garantías de que esos contenidos sean correctos, porque ya sabemos que los chatbots de IA como este pueden cometer errores y no son fuentes fiables de información). Algunos artículos de la Grokipedia reflejan las opiniones de Musk sobre esclavitud, género y medios de comunicación. Otros copian directamente contenido de Wikipedia (pese a que la critica y tilda de 'Wokepedia').
Multa pionera por un desnudo falso generado con IA. La Agencia Española de Protección de Datos (AEPD) ha sancionado con 2.000 euros por crear y difundir imágenes artificiales de menores desnudas, publica El País. Aunque los datos no se especifican, según recoge el periódico las fechas encajarían con el caso de Almendralejo: el 18 de septiembre de 2023, varias madres de un instituto de este municipio de Badajoz denunciaron la difusión de desnudos de sus hijas menores de edad creadas con IA. Es la primera vez que una autoridad de protección de datos en la Unión Europea por la difusión de un deepfake. Aquí te explicamos qué hacer si te encuentras tu cara o la de un menor a tu cargo en una imagen sexual creada con IA (o con cualquier otra tecnología).
¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.