MENÚ
MALDITA TECNOLOGÍA

Qué es la autofagia en IA, la “enfermedad” que pueden sufrir los modelos de inteligencia artificial si se entrenan con imágenes creadas por ellos mismos

Publicado
Claves
  • Modelos de imágenes como Stable Diffusion se nutren de los contenidos sacados de la red, entre los que se incluyen imágenes creadas a su vez por inteligencia artificial
  • Las investigaciones señalan que si estas aplicaciones se entrenan con sus propias imágenes se vuelven defectuosos, una “enfermedad” denominada autofagia
  • Los grandes modelos cuentan con mecanismos para combatir estos resultados defectuosos y mientras que haya datos nuevos con los que entrenarlos no es un peligro real
Comparte
Categorías
Recursos utilizados
Superpoderes
Literatura científica
Fuentes oficiales (comunicados, bases de datos, BOE)

Aplicaciones de inteligencia artificial (IA) como Midjourney o DALL-E nos permiten generar imágenes de casi todo tipo gracias a que han sido entrenados con grandes cantidades de contenidos disponibles en la web, desde fotografías hasta obras de arte. Esta diversidad de fuentes y datos hace que estos modelos puedan hasta imitar el estilo de pintura de un artista concreto, pero también corren el riesgo de entrenarse con otras imágenes que ellos mismos han generado, algo que podría “enfermar” a estos programas e influir en sus resultados. La “enfermedad” resultante de que una inteligencia artificial consuma su propio contenido se ha denominado como autofagia en el modelo (MAD, ‘loco’, por sus siglas en inglés), un riesgo que las compañías intentan evitar a través de diferentes medidas.

Las IA necesitan datos “frescos” creados por humanos para aprender a crear imágenes y evitar resultados defectuosos

Para que un modelo de inteligencia artificial como Stable Diffusion aprenda a crear imágenes a partir de una descripción (los conocidos como prompts), primero tiene que ser entrenado con una gran base de datos de diferentes imágenes asociadas a determinadas palabras. De esta forma, la inteligencia artificial aprende a relacionar términos con ciertos patrones visuales y viceversa (aunque no entienda su significado). Por ejemplo, si es entrenado con varias imágenes de pájaros etiquetadas como “pájaro”, poco a poco aprenderá a asociar diferentes patrones (la forma que tiene este animal, sus colores, el patrón de las plumas) a esa palabra.

Fuente: MIT.

Pero la realidad no es tan sencilla y evidentemente no hay un sólo tipo de pájaro. Que si cacatúas, que si periquitos, que si loros… A un modelo de inteligencia artificial no le vale con entrenarse con unas pocas imágenes de aves, sino que su base de datos tiene que ser muy amplia y diversa (diferentes especies, colores, tamaños…) para que sea capaz de crear una imagen con la descripción que pidamos. En resumen, con cuantas más fotografías diferentes se entrene una inteligencia artificial, mejores serán sus resultados. En este artículo del MIT puedes encontrar más información sobre cómo funciona este proceso.

Fuente: MIT.

Pero si en lugar de aprender de las imágenes de diferentes pájaros una inteligencia artificial comienza a entrenarse con sus propias creaciones (las que ha devuelto cuando le hemos pedido que dibuje aves), el resultado comienza a ser muy diferente. Al principio seguirá creando la imagen de un pájaro, pero poco a poco irá perdiendo calidad hasta empezar a devolver imágenes que poco tienen que ver con este animal.

Los expertos han bautizado este proceso como Autofagia (proceso por el que una célula devora sus propios tejidos) en el Modelo. El término en inglés es Model Autophagy Disorder y sus siglas (MAD) se traducen como “loco”. Se trata de una “enfermedad” que sufren las inteligencias artificiales cuando se nutren de sus propios datos. En estos casos los modelos entran en una especie de bucle: crean una imagen, se entrenan con ella y vuelven a generarla. A cada vuelta de este ciclo el modelo va perdiendo precisión y poco a poco el contenido original va quedando irreconocible.

Esquema de un bucle de autofagia, en el que un modelo de inteligencia artificial se entrena con los contenidos que él mismo ha creado. Fuente: Self-Consuming Generative Models Go MAD. Universidad de Rice y Universidad de Stanford. 

En el caso de que una inteligencia artificial se entrene únicamente con rostros que ella misma haya generado, estas imágenes poco a poco irán perdiendo nitidez y comenzarán a mostrar errores, como pueden ser formas y patrones que no tienen relación con la realidad. En este ejemplo se puede observar cómo a medida que un modelo repite este bucle la calidad de los rostros va empeorando hasta que presenta patrones que no tienen relación con una cara. Resultados de un bucle de autofagia.

Resultados de un bucle de autofagia. Fuente: Self-Consuming Generative Models Go MAD. Universidad de Rice y Universidad de Stanford. 

Este proceso se puede evitar introduciendo información “fresca” (real, original) en el bucle hasta conseguir romperlo, pero el estudio advierte de que si estos nuevos contenidos no son suficientes, sólo se conseguirá retrasar lo inevitable y tarde o temprano uno de estos modelos terminará degradándose

La autofagia podría afectar a los grandes modelos, si se entrenan con muchos contenidos generados con IA

Teniendo en cuenta la cantidad de imágenes generadas con inteligencia artificial que hay hoy en día en la red (que por el momento no se pueden identificar) con las que se nutren estos modelos, ¿significa que aplicaciones como DALL-E o Midjourney están destinadas a degradarse? ¿Hay un peligro real de que estas aplicaciones se “devoren” a sí mismas? La respuesta corta es que por el momento no. La respuesta larga es que para evitar la autofagia hay que tener en cuenta el porcentaje de contenidos generados por IA que ocupan estas bases de datos y otras medidas de control de calidad.

Algunas publicaciones apuntan a que la creación masiva de estas imágenes podría perjudicar, al menos en parte, al entrenamiento de las IA en un futuro. Según Verónica Bolón, profesora en Ciencias de la Computación e Inteligencia Artificial en la Universidad de La Coruña y maldita que nos ha prestado sus superpoderes, los modelos de gran tamaño tienen mecanismos para evitar que otros contenidos generados con inteligencia artificial (o que busquen “envenenar” las bases de datos a propósito, como es el caso de NightShade) afecten de manera relevante a sus resultados.

La experta indica que si estos contenidos están presentes en un gran porcentaje sí que tendrá consecuencias para el modelo, pero aclara que este escenario ya se planteaba ante otras otras imágenes que no tenían buena calidad (imágenes borrosas, mal etiquetadas…). Además, las compañías realizan etapas de selección dentro de estas grandes bases de datos, aunque debido a su gran tamaño es “imposible” garantizar su calidad. “Mientras este tipo de imágenes no supongan un número significativo no va a ser un gran problema. Siempre va a haber datos malos”, explica Bolón.

También entran en juego otro tipo de mecanismos de aprendizaje por refuerzo que ayuden al modelo a saber “lo que está bien o lo que está mal”. Por ejemplo, cuando uno de estos modelos nos da a elegir entre varias imágenes, entiende que la que finalmente seleccionamos es el resultado óptimo y que el resto de contenidos no se “ajustan” a lo que habíamos pedido, por lo que el modelo va incorporando ese ajuste acorde a nuestras decisiones. En resumen, con la información que tenemos actualmente y el punto de desarrollo de la tecnología, mientras estas aplicaciones sigan incorporando datos nuevos no hay peligro de que DALL-E o Mid Journey se devoren a sí mismos.

En este artículo ha colaborado con sus superpoderes la maldita Verónica Bolón.

Verónica Bolón forma parte de Superpoderosas, un proyecto de Maldita.es en colaboración con FECYT que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de WhatsApp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.