Maldita Tecnología

Tech en un clic: como Rosalía, la IA generativa también se sube a la religión (y se usa para crear falsas periodistas y desinformar)

Publicado el
Tiempo de lectura: 11 minutos
Compartir:

¡Feliz sábado, malditos y malditas! Creo que es prácticamente imposible que no sepas que ayer se publicó (oficialmente, porque antes se filtró) el nuevo disco de Rosalía, ‘Lux’. Han corrido y correrán en los próximos días ríos de tinta y vídeos donde se analiza su espiritualidad, desde la simbología religiosa, a las letras o la incorporación de un coro litúrgico. No tenemos aún claro a qué suena la fe según la cantante, pero sí que no es la única que anda haciendo contenidos relacionados con la religión: en redes sociales hay montones de representaciones de Jesucristo gracias al uso de IA generativa.

Jesús e IA, trá trá

Primero lo identificamos en Facebook con imágenes extrañas, y ahora en forma de vídeo en todas las redes sociales: a Jesucristo ya no solo se le representa en las iglesias, en estampas y en el cine, sino que hay vídeos donde se ve a un Jesús generado con IA haciendo las cosas más dispares. Estos contenidos acumulan millones de visualizaciones e interacciones

Esta tendencia ha sido potenciada con Sora de OpenAI, que permite crear vídeos hiperrealistas con IA de forma facilísima y compartirlos con otros usuarios de forma aún más fácil (porque la propia plataforma es en sí misma una red social, y luego pueden saltar con un clic a TikTok o Instagram). 

El resultado son estos vídeos en los que hay un Jesucristo estilo anime japonés teniendo batallas épicas con distintos personajes de películas o series de televisión, como Chucky o Goku de Dragon Ball Z, o un Jesucristo participando en competiciones de los Juegos Olímpicos (una tendencia que ya te contamos que se está usando para perpetuar narrativas y estereotipos sobre las mujeres, inmigrantes y judíos). En estos casos, Jesús camina sobre el agua o asciende hasta el cielo. Definitivamente la banda sonora de estos vídeos debería ser el nuevo disco de Rosalía.

Bromas aparte, nos hemos preguntado qué hay detrás de esto. Hay quien simplemente busca generar ingresos a través de ellos, ya sea monetizándolos o redirigiendo a los usuarios a otros sitios web. Pero, concretamente, ¿cuál es la necesidad de representar así a Jesús, por qué se hacen virales y triunfan estos contenidos creados con IA? La antropóloga Anaïs Madera nos ha dicho cosas interesantísimas, como que con ellos “conectan dimensiones que pensábamos que no se cruzarían: lo sagrado y lo cotidiano”, y una reflexión: “Antes, la fe se compartía en los templos o las calles; hoy, las redes sociales son nuevos espacios de encuentro y expresión espiritual”. Te invito a leer el análisis.

Periodistas que no son reales ni dicen la verdad

Más allá del sentir religioso o de los objetivos detrás, es difícil que alguien crea que los vídeos de Jesús participando en las Olimpiadas son reales. Lo que no es tan difícil es que nos la cuelen cuando usan IA generativa para representar a supuestas periodistas en informativos o en la calle narrando sucesos, y esto puede desinformar por varios motivos.

Se trata de vídeos que circulan en redes sociales que representan a periodistas (en su mayoría, mujeres) que relatan y muestran situaciones que no han ocurrido. Por ejemplo, transmitiendo en directo desde socavones por los que caen personas y coches, contenidos que ya hemos desmentido en otras ocasiones, como este que muestra a una supuesta reportera en Bariloche (Argentina), mientras un coche y una persona desaparecen dentro de un agujero en la calzada.

A pesar de que en los comentarios hay usuarios advirtiendo del origen sintético de estos contenidos, otros parecen no saber que han sido creados con inteligencia artificial. Expertos consultados por Maldita.es afirman que así aprovechan la credibilidad y el rol social de las periodistas como “aliadas y voces del público” para transmitir estos mensajes de forma convincente. Por ejemplo, China, Venezuela y el Daesh han usado estos vídeos con IA de periodistas para promover propaganda.

¿Y esto en qué puede derivar? Erosionar la confianza en los periodistas, medios de comunicación e instituciones, y contaminar aún más un ecosistema informativo en el que cada vez hay más basura y donde es más difícil saber qué es real y qué no.

Cuando la IA pone en peligro tu salud

No todo es IA generativa para crear vídeos falsos. Hay otras aplicaciones de esta tecnología que entrañan riesgos; algunos, directamente relacionados con nuestra salud: los sistemas de IA que se usan en el sector sanitario.

Diagnósticos que no llegan, tratamientos equivocados y diagnósticos negligentes, los sistemas de IA con fines médicos pueden tener sesgos que influyen negativamente en la atención que reciben personas históricamente discriminadas. Mujeres, personas racializadas y personas LGBTIQ+ son las víctimas habituales. Así lo advierten diversos estudios en los últimos años.

Si estos sistemas de IA se usan sin supervisión humana y se deja libre albedrío a estos sesgos, pueden darse situaciones con consecuencias graves en la salud de los pacientes. Por ejemplo, un cáncer de piel podría no ser detectado a tiempo en una persona racializada, poniendo en riesgo sus posibilidades de mejora; una mujer podría ser enviada a casa para automedicarse, aunque padezca una enfermedad grave; y una persona trans podría recibir una respuesta inexacta sobre su salud. Te detallamos todo con sus estudios aquí.

¿Y estos sesgos se pueden evitar? Al menos, se puede minimizar su impacto fomentando la diversidad en los equipos que desarrollan estos modelos y aplicaciones, trabajando en la explicabilidad de la IA, y no asumiendo que las respuestas generadas por una IA son neutrales o correctas, según nos han explicado expertos en inteligencia artificial

En tres bits

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte