Algunos modelos de inteligencia artificial (IA) generativa nos permiten crear casi todo tipo de imágenes con sólo introducir unas pocas palabras o instrucciones (los prompts) gracias a la cantidad de contenidos con las que han sido entrenados. Aunque aplicaciones como DALL-E, Midjourney o Stable Diffusion pueden tener su espacio dentro de la industria como una herramienta creativa de apoyo, aún hay luces y sombras que las rodean. Parte de la comunidad artística denuncia que los creadores de estas aplicaciones utilizan para entrenarlas sus fotos y dibujos sin permiso y esto puede acarrear problemas de propiedad intelectual; algo que ya han denunciado intérpretes y guionistas en Hollywood. Ante estas preocupaciones han surgido plataformas, como Glaze o Photoguard, que prometen proteger nuestras creaciones para que no puedan ser usadas por una inteligencia artificial.
Los artistas denuncian que se están usando sus obras para entrenar a la IA sin su consentimiento
Herramientas como Midjourney o DALL-E nos permiten, a través de una descripción precisa (los conocidos como prompts), generar imágenes de prácticamente todo lo que se nos pueda ocurrir. Desde el papa Francisco vistiendo al último grito de Balenciaga a una supuesta imagen de Pablo Iglesias junto a Yolanda Díaz, estas aplicaciones poco a poco van consiguiendo resultados más realistas que hacen más difícil distinguir lo que es real de lo que es ficción (con los riesgos que puede suponer para la desinformación).
Para conseguir resultados convincentes estos modelos son entrenados con miles de imágenes de internet, publicaciones en redes sociales, bancos de fotografías... El problema viene cuando también se emplean creaciones que están protegidas por derechos de autor o que se añaden a bases de datos sin el consentimiento de los artistas. Por ejemplo, podemos utilizar Midjourney para crear una imagen con un estilo artístico en específico, como puede ser una película de animación del estudio Pixar, pese a que en teoría estas imágenes están protegidas con derechos de autor y no se podrían usar para entrenar a estos modelos, tal y como nos detalló Xavier Mitjana, divulgador de tecnología e inteligencia artificial, en la Twichería de Maldita Tecnología.
El uso de obras artísticas para entrenar a modelos de inteligencia artificial sin el consentimiento de sus autores es una de las principales preocupaciones en algunos sectores de la pintura y el dibujo (y también en otros campos como la literatura). Artistas como Sarah Andersen, dibujante, o Kelly McKernan, que se dedica a la ilustración, han decidido tomar cartas en el asunto y en enero de 2023 presentaron una denuncia colectiva contra las compañías Stability AI, Midjourney y Deviantart por su uso de Stable Diffusion, uno de estos modelos de IA de imagen generativa, por infringir derechos de autor al haber sido entrenado con sus creaciones.
Herramientas como Glaze o Photoguard prometen proteger nuestras imágenes y creaciones de la IA
Algunas compañías han respondido a esta preocupación de los artistas y han puesto medios a su disposición para decidir si sus obras pueden o no ser usadas para entrenar a un modelo de inteligencia artificial. Stable Diffusion dio en diciembre de 2022 (antes de esta demanda colectiva) la opción a los artistas de retirar sus obras de LAION-5B, una base de datos abierta a partir de imágenes tomadas de la red (incluidas aquellas con derechos de autor) con la que se entrena Stable Diffusion.
Pero esta solo es una de las bases de datos disponibles con las que se entrenan estos modelos de imagen generativa. En muchos casos los artistas no tienen modo de saber si sus creaciones se han utilizado en una de estas bases de datos y denuncian que estas soluciones ponen la carga de responsabilidad en el autor, ya que son ellos los que tienen que especificar que sus obras no se pueden usar, en lugar de ser estos modelos generativos los que tengan que pedir permiso. Es importante tener en cuenta que una vez que publicamos una imagen en internet perdemos el control de qué se hace con ella, aunque esté protegida por la Ley de Propiedad Intelectual (y podamos denunciar).
Por ello, la comunidad ha comenzado a buscar otras soluciones para evitar el uso de sus creaciones. Una de las respuestas es Glaze: una herramienta gratuita elaborada por la Universidad de Chicago que promete proteger estas obras frente a la inteligencia artificial. Esta aplicación introduce una serie imperfecciones en los píxeles de la imagen (imperceptibles para el ojo humano) que interfieren en el análisis que puede hacer los modelos generativos del contenido. Es decir, que al espectador de la obra no le afecta, pero sí dificulta el trabajo de la inteligencia artificial y hace que esta pueda reconocer formas básicas (objetos, personas, animales), pero no imitar el estilo de cada artista (su trazo, paleta de colores y otros detalles).
Según los propios creadores de esta aplicación, por ahora ningún intento de saltar este tipo de protección ha tenido éxito, aunque advierten de que no puede proteger a las imágenes frente a otro tipo de procesos, como utilizar una imagen como fuente para crear otra imagen exactamente igual o parecida (un proceso conocido como imagen a imagen, o img2img). Es decir, que puede evitar que un modelo de inteligencia artificial aprenda a imitar un estilo en concreto, pero no puede evitar que esa imagen se utilice directamente para crear una versión modificada de la misma que sí podría servir para entrenar a un modelo de inteligencia artificial, aunque otras herramientas como Mist sí que prometen mayor protección contra estos usos.
Otra de estas herramientas es Photoguard, un proyecto elaborado por el Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) que también introduce pequeñas perturbaciones en las imágenes que afectan a cómo las interpreta una máquina, mientras que un humano apenas sería capaz de notar la diferencia. Esta aplicación también permite seleccionar qué parte de una imagen queremos proteger frente a la inteligencia artificial, como por ejemplo las caras que aparecen en una fotografía. Eso sí, sus creadores avisan que tampoco es infalible.
Estas herramientas se valen de cómo se entrenan los modelos de IA, asociando las etiquetas y palabras de las imágenes
La clave de estas herramientas está en cómo los humanos percibimos las imágenes frente a cómo las identifica un modelo de inteligencia artificial. En general, mientras que nosotros nos podemos fijar en los colores o en el trazo de una obra, aplicaciones como Stable Diffusion aprenden a replicar una imagen analizando sus patrones pixel a pixel y asociando estas figuras a diferentes palabras.
Por ejemplo, si es entrenado con varias imágenes de pájaros, etiquetadas con la palabra “pájaro”, poco a poco aprenderá a asociar diferentes patrones (la forma que tiene este animal, sus colores, el patrón de las plumas) a esa palabra, aunque como siempre advertimos no es que la IA tenga conciencia ni que sepa el significado de los conceptos o imágenes con los que trabaja. Simplemente aprende a relacionar palabras con ciertos patrones visuales y viceversa, pero no es capaz de entender su significado. En este artículo del MIT puedes encontrar más información sobre cómo funciona este proceso.
Ese sería el proceso normal. Pero si se introducen modificaciones en estos patrones la máquina no será capaz de identificarlos ni de replicarlos y por lo tanto no podrá aprender de esas imágenes alteradas, ni imitar el estilo de un artista (o al menos eso proponen estas herramientas). Otros proyectos como NightShade buscan ir un paso más allá e introducir otras alteraciones para confundir a la inteligencia artificial y “envenenar” sus bases de datos.
Por ejemplo, esta herramienta podría modificar la imagen de un perro para que un modelo de IA lo interpretase como un gato, alterando así el resultado de otras imágenes y consiguiendo que estas aplicaciones produzcan imágenes defectuosas. Vamos, que en lugar de un bolso genere una tostadora, entre otras locuras que se nos pueden ocurrir y que, como decimos, a la IA no le chocaría porque en realidad no entiende qué son esos conceptos; solo sabe lo que aprende de las asociaciones de palabras.
Entonces, ¿podemos evitar que usen nuestras imágenes y creaciones para entrenar a la IA, y saber cuándo se ha hecho?
Es la pregunta del millón. Como en otras ocasiones, la legislación va por detrás de los avances de la tecnología y no hay normativas específicas (aunque algunas podrían interpretarse, como con los derechos de voz y la IA que imita voces). Mientras que la Unión Europea aún sigue trabajando en el AI Act (la propuesta de Reglamento de la Unión Europea para regular el uso de la inteligencia artificial), cada vez son más los artistas que buscan alternativas para que al menos sea más difícil que se utilice su trabajo sin su consentimiento. Aunque no hay ninguna garantía al 100% de que nuestras creaciones no acaben en alguna base de datos, podemos tener en cuenta una serie de aspectos para que sea menos probable:
- Herramientas como Glaze, Photoguard, Mist o NightShade pueden dificultar la capacidad de los modelos de IA de imitar el estilo y las características de nuestras obras.
- Si queremos publicar nuestro trabajo online, ojo porque no hay redes sociales o plataformas que puedan garantizar que nuestras creaciones no puedan ser usadas para entrenar a la inteligencia artificial. Plataformas como ArtGram o Cara han promovido iniciativas para evitar en lo posible que sus contenido se puedan usar en una IA o que en ese caso se puedan identificar dentro de una base de datos, pero no suponen una garantía.
- Conviene recordar que, aunque técnicamente cualquier foto o imagen que subamos a nuestras redes sociales está protegida por la Ley de Propiedad Intelectual y no puede usarse a la ligera (y podríamos denunciar), cuando publicamos un contenido en internet perdemos el control de qué se hace con él.
- Si tenemos dudas de que nuestras creaciones se han usado para entrenar a algún modelo de inteligencia artificial, páginas como Have I Been Trained nos permiten buscar nuestro trabajo en las bases de datos más populares y así poder solicitar su retirada.
Primera fecha de publicación de este artículo: 30/10/2023