MENÚ
MALDITA TECNOLOGÍA

Caras de personas que no existen: cómo funciona la tecnología que las crea

Publicado
Actualizado
Comparte

Explicar cómo funcionan algunas aplicaciones de inteligencia artificial no es fácil, como quedó demostrado al hablar de cómo funcionan los filtros de Instagram o TikTok, por ejemplo, o qué tecnología está detrás de los deepfakes. Hoy vamos con una explicación de cómo consiguen programas informáticos crear caras nuevas desde cero.

Quizás hayas visto en las noticias o en redes sociales informaciones que hablan de caras artificiales. O sea, de personas que no existen, y que sin embargo están tan bien hechas que a cualquiera podrían colárnosla. Hace unos meses, en Maldita.es os hablamos por ejemplo del caso de Miguel Lacambra, un seudónimo con el que se creó una cuenta de Twitter y se publicaron artículos en un medio. Su cara no existía.

¿Cómo se aplica aquí la inteligencia artificial?

Para elaborar estas caras, se utilizan programas basados en inteligencia artificial, un tipo de aplicación informática que se basa en conseguir ciertos resultados (fijados por las personas que la crean) a partir de un conjunto de datos. Dentro del campo de la inteligencia artificial, se utilizan unas técnicas llamadas redes neuronales, que se ocupan de buscar patrones y otra información entre los puntitos que unen todos esos datos.

Suena todo un poco abstracto, pero tened en cuenta que hablamos de programas informáticos, o sea que al final todas esas aplicaciones se llevan a cabo mediante ecuaciones matemáticas (como algoritmos) y órdenes escritas en lenguaje informático.

Volvemos con nuestras caras artificiales. Daniel Paternain, profesor del área de Ciencia de la Computación e Inteligencia Artificial en la Universidad Pública de Navarra, explica a Maldita Tecnología que para generar caras ficticias se utiliza un modelo generativo llamado GAN: Generative Adversarial Network (redes generativas adversariales, en español).

¡Bingo! De ese tipo de redes neuronales os hemos hablado para explicar cómo funcionan los deepfakes, esos vídeos manipulados para que parezca que una persona dice algo que en realidad está diciendo otra. “Son la unión de dos partes diferentes que ‘pelean’ entre ellas: el generator (generador) y el discriminator (discriminador). El primero es el encargado de generar caras (o imágenes en general) artificiales mientras que el segundo de decidir cuándo una cara es real y cuándo es ficticia”, explica Paternain.

¿Cómo hacen esa distinción?

También lo explica Paternain: el discriminador actúa como los programas que se usan para decidir si en una imagen aparece un gato o un perro, un peatón o un coche, etc: “Es una red que recibe una imagen y, tras varias capas convolucionales, predice la probabilidad de que una cara sea real o no”. La arquitectura del generador es la contraria: no cuenta con imágenes previamente sino que las “construye” a partir de una serie de números aleatorios.

“Una vez que la GAN está entrenada, podríamos preguntarle al generator cuáles son los números aleatorios que le permiten, por ejemplo, generar mi cara. Y podríamos hacer lo mismo con la tuya, etc. Pues bien, al final descubriríamos que los conjuntos de números aleatorios se distribuyen de una manera específica”, dice Paternain, que pone como ejemplo un modulador de volumen: “Al ir girando añadimos o disminuimos rasgos masculinos; aumentamos la barba; aumentamos rasgos de raza caucásica, etc.”.

Imagen: NVIDIA.

¿Podría uno de estos programas crear una cara que ya existe?

Al menos parecerse mucho a una sí. Paternain explica que la red únicamente ve la base de datos de caras que se le ha mostrado al discriminador: “A partir de dichas imágenes la red aprende a generar caras nuevas a partir de estas, pero es incapaz de saber si dicha cara se parece a una tercera persona que antes no ha visto”.

La parte complicada de todo esto, en realidad, no está solo en diseñar el programa, sino poder entrenarlo de una forma lo suficientemente precisa para que dé buenos resultados. De ahí que no podamos fiarnos de cualquier aplicación gratuita que asegure poder generar caras artificiales.

Nerea Luis, doctorada en Inteligencia Artificial e ingeniera de Sngular nos explica que es una tecnología que no está al alcance de todos. A día de hoy, la muestra más precisa para trabajarla es la publicada por el laboratorio NVIDIA en 2019. “El problema de las GAN es que necesitan mucho procesamiento: son modelos muy caros y poco movibles de entorno”, asegura.

La gran pregunta: ¿para qué queremos generar caras falsas? ¿Solo se te ocurren trastadas? Lo cierto es que perfeccionar este tipo de aplicaciones sirve para incorporar novedades tecnológicas en muchos otros campos. “Controlando la generación de caras, se puede utilizar esta tecnología para paliar toda la falta de datos de representación en las bases de datos. Esa base de datos puede estar muy sesgada y no ser representativa del resto del mundo”, explica Luis. 

Una cara generada con GAN usango el código de NVIDIA. Imagen: Thispersondoesnotexist.com

En Maldita Tecnología os hemos hablado de los problemas a los que se enfrenta la tecnología de reconocimiento facial, por ejemplo, al analizar caras de personas con la piel oscura o negra. Pero es que esto también pasa con gente pelirroja, por ejemplo. ¿Por qué? Porque no hay tantas imágenes disponibles para introducir en una base de datos que luego sirva para entrenar un programa de inteligencia artificial.

Luis asegura que si sigue avanzando por este camino, en un futuro podrán usarse GAN para fines artísticos y creativos: por ejemplo, aplicar esta tecnología al cuerpo en vez de a la cara para simular un baile. O incluso en el sector retail: “Imagina que entras a una página web de ropa, donde puedes crear tu avatar preciso, estarás viendo a una persona con la ropa cómo te quedaría a ti”.


Primera fecha de publicación de este artículo: 04/12/2020

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.