MENÚ
MALDITA TECNOLOGÍA

Cómo se podrían usar marcas de agua para identificar imágenes creadas con IA (y por qué aún no son la solución definitiva)

Publicado
Actualizado
Claves
  • Países, instituciones y artistas piden más esfuerzos por identificar las imágenes creadas por con modelos de inteligencia artificial
  • Compañías como Meta o Google han propuesto algunas soluciones, como la inserción de marcas de agua imperceptibles para el ojo humano en las imágenes
  • Las empresas advierten de que estas medidas no son infalibles e investigaciones apuntan a que se podrían saltar con facilidad
Comparte
Categorías
Recursos utilizados
Superpoderes
Literatura científica
Fuentes oficiales (comunicados, bases de datos, BOE)

Diferenciar una imagen generada con inteligencia artificial (IA) de una real o creada con otras herramientas es una tarea cada vez más difícil. La Unión Europea, Estados Unidos y el G7 abogan por más esfuerzos para identificar este tipo de contenidos y plantean soluciones como incorporar marcas de agua para las imágenes generadas con esta tecnología. Algunas empresas como Meta o Google han presentado iniciativas para incrustar estas identificaciones en las imágenes de forma imperceptible para el ojo humano, pero varios estudios e investigaciones académicas señalan que estas soluciones están lejos de ser ideales. 

Países, instituciones y artistas piden a las empresas más esfuerzos para detectar las imágenes generadas con inteligencia artificial

Uno de los grandes retos de la IA es saber cuándo una imagen o una obra ha sido creada con una de estas herramientas o si se trata de una creación humana original. Son desafíos a los que nos hemos enfrentado, como en el caso de las imágenes de supuestas series de Netflix que impulsan una ideología woke (“progre” sería su traducción más cercana al español) o que apoyan teorías de la conspiración creando supuestas fotografías históricas de hechos que nunca han sucedido.

Estas preocupaciones también han llegado a las altas esferas de la política. El 30 de octubre de 2023 el G7 (foro político formado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) acordó un código de conducta voluntario para que los desarrolladores de inteligencia artificial mitiguen los posibles riesgos de esta tecnología. Entre las medidas se encuentra establecer mecanismos para la detección de este tipo de contenidos, como puede ser la incorporación de marcas de agua: un tipo de identificación (ya sea un logo, un texto o alguna otra técnica más elaborada) que permita distinguir una imagen y saber su origen. Si alguna vez has trabajado con fotografías de archivo seguro que has vistos las típicas transparencias que indican su origen, como es el caso de Europa Press o ShutterStock.

Ese mismo día el presidente de Estados Unidos Joe Biden firmó una orden ejecutiva para regular la inteligencia artificial, en la que piden a las compañías tecnológicas diferentes esfuerzos para evitar que la IA se pueda convertir en un riesgo social. Entre ellas se encuentra la inserción de medidas que protejan a los estadounidenses “del fraude y el engaño”, mientras que el Departamento de Comercio desarrollará una guía para la creación de marcas de agua para “etiquetar claramente el contenido generado por IA”.

La comunidad artística también ha pedido soluciones para identificar este tipo de imágenes generadas por inteligencia artificial y que no se hagan pasar por arte creado por un humano. Una medida que también puede ser útil para identificar sus creaciones y que no se empleen sus obras artísticas para entrenar a los modelos de inteligencia artificial, una preocupación que ha llevado a artistas como Sarah Andersen o Kelly McKernan ha denunciar a Stability AI, Midjourney y a Deviantart por su uso de estos modelos de inteligencia artificial e infringir derechos de autor.

Meta y Google están desarrollando proyectos para introducir marcas de agua imperceptibles para el ojo humano

Por el momento cada compañía ha ido incorporando este tipo de medidas de forma diferente. Las imágenes creadas con DALL-E muestran un icono de colores en la parte inferior derecha para señalar su procedencia, pero esta medida se puede saltar fácilmente (ya sea recortando la imagen manualmente o utilizando algunas herramientas online). OpenAI (la empresa detrás de DALL-E y ChatGPT) asegura que no hay ningún impedimento para eliminar esta marca de agua y comercializar estas imágenes, aunque advierte de que “no se puede ocultar a otros el origen de la obra”, como decir que una imagen es real o que no ha sido creada con inteligencia artificial. Advierten sobre ello… pero no proponen mecanismos para evitarlo y deja toda la responsabilidad en los usuarios.

Hay otras alternativas. Meta y Google aseguran haber desarrollado herramientas capaces de insertar marcas de agua en los píxeles de las imágenes generadas con IA, de forma imperceptible para el ojo humano, y que de esta forma se pueda identificar si un contenido ha sido creado con sus inteligencias artificiales.

Synth ID, la aplicación desarrollada por Google, es una herramienta que permite identificar aquellas imágenes generadas a través de Imagen, su modelo generativo de imágenes. Para ello Google ha empleado dos modelos de aprendizaje profundo, un tipo de inteligencia artificial que “aprende” de forma parecida como lo harían los humanos: uno entrenado para insertar marcas de agua entre los píxeles de la imagen y otro entrenado para detectar estos patrones. El resultado permite incrustar esta identificación dentro de la obra de modo que no se pueda eliminar (ya sea recortando la imagen o cambiando su color) y a la vez que no sea visible para nuestros ojos.

Meta también ha optado por una solución similar a través de Stable Signature. Su funcionamiento es muy parecido a Synth ID y según la compañía, esta aplicación (de código abierto) puede incrustar marcas de agua en las imágenes creadas por otros modelos generativos de código abierto, sin alterar el resultado de la imagen. En este artículo puedes encontrar más detalles sobre su funcionamiento. 

Fuente: Meta. 

Pese a que Google, Meta y OpenAI están trabajando en soluciones diferentes, estas tres compañías se han sumado a la Coalición para la Procedencia y Autenticidad de Contenido (C2PA, por sus siglas en inglés): un proyecto fundado en 2019 por Adobe, The New York Times y Twitter (ahora X) con el objetivo de crear protocolos y herramientas para comprobar la autenticidad de los contenidos multimedia en la red. Las soluciones que desarrollen estas compañías por separado se podrán incluir en un certificado común que permita verificar el origen de una imagen o un vídeo en internet.

Fuente: Concent Credentials.

Algunos estudios apuntan a que las marcas de agua no serían eficaces para saber si una imagen ha sido creada con IA

Synth ID o Stable Signature pueden suponer una alternativa para detectar estos contenidos, pero sus propios creadores reconocen que no son infalibles. Podrían significar un punto de inicio para trabajar en este tipo de identificaciones y llevarlas a otros elementos como el audio o el vídeo.

Otras investigaciones apuntan a que las marcas de agua no serían eficaces para comprobar si algo ha sido generado con IA. Son las conclusiones a las que ha llegado un equipo de la Universidad de Maryland en un estudio que mostraría la facilidad con las que se podrían eliminar estas marcas de agua o añadirlas a otras imágenes y crear falsos positivos.“No tenemos ninguna marca de agua fiable. Las hemos roto todas”, ha asegurado Soheil Feizi, profesor de informática de la Universidad de Maryland y uno de los autores de este trabajo, en declaraciones a Wired.

No es el único artículo que muestra las flaquezas de este sistema, otra investigación de la Universidad de California en Santa Bárbara y de la Universidad Carnegie Mellon han llegado a la misma conclusión: “Todas las marcas de agua invisibles son vulnerables". Según esta investigación, estas identificaciones se podrían eliminar a través de un proceso de “ataques regenerativos”. En pocas palabras, añadir ruido y perturbaciones en estas imágenes para destruir la marca de agua y después reconstruirlas usando la inteligencia artificial. Un proceso que habría conseguido eliminar entre el 93% y el 99% de las marcas de agua en las pruebas realizadas. Además, los expertos aseguran que este tipo de ataques se podrían implementar fácilmente en otras herramientas o en modelos de generación de imagen. Vamos, que por el momento no parece ser una solución fiable a este problema.

Fuente: Invisible Image Watermarks Are Provably Removable Using Generative AI, Universidad de California en Santa Bárbara y Universidad Carnegie Mellon. 

Identificar las imágenes generadas con IA también podría ayudar a evitar resultados defectuosos

Identificar este tipo de imágenes no sólo es importante para combatir la desinformación o evitar otros malos usos (como la generación de contenidos pornográficos sin el consentimiento de las víctimas). También puede afectar a la calidad de estos modelos de inteligencia artificial y a las imágenes que crean si se entrenan con otros contenidos generados con IA o que han generado estos propios modelos. Una “enfermedad” que tiene su propio nombre: Trastorno Modelo de Autofagia. MAD, por sus siglas en inglés, que también se podría traducir como “loco”.

Según una investigación conjunta de la Universidad de Stanford y la Universidad Rice, la calidad de estos modelos de inteligencia artificial decrece a medida que se va entrenando con las creaciones de otros programas en lugar de con imágenes reales u originales, perdiendo poco a poco información y alejándose de la realidad. “Sin suficientes datos frescos, los futuros modelos generativos están condenados a que su calidad o diversidad disminuyan progresivamente”, argumenta el estudio. Hay más publicaciones que apuntan a que la creación masiva de estas imágenes perjudicará al entrenamiento de las IA en un futuro. 

Algunas aplicaciones prometen “envenenar” las bases de datos, pero no es una medida eficaz según los expertos

Esto de que una herramienta de IA sufra el Trastorno Modelo de Autofagia puede pasar sin querer (si se entrena con bases de datos que incluyen imágenes generadas con IA pero no a sabiendas), o… adrede. Hay herramientas que buscan de forma deliberada “envenenar” sus bases de datos para que generen resultados incorrectos. Es la propuesta de NightShade, un proyecto que promete ser “una última defensa para los creadores de contenido” frente a las bases de datos que utilizan el trabajo de los artistas sin su permiso.

Por ejemplo, esta herramienta podría modificar la imagen de un perro para que un modelo de IA lo interpretase como un gato, alterando así el resultado de otras imágenes y consiguiendo que estas aplicaciones produzcan imágenes defectuosas. Sin capacidad de detectar si una imagen ha sido creada con alguna de estas aplicaciones a través de una marca de agua, estas bases de datos podrían ser vulnerables a este tipo de ataques, según los estudios.

Fuente: MIT. 

¿Podrían estas imágenes “envenenadas” afectar a modelos de gran tamaño, como Stable Diffusion o Midjourney? Según Verónica Bolón, profesora en Ciencias de la Computación e Inteligencia Artificial en la Universidad de La Coruña y maldita que nos ha prestado sus superpoderes, estas imágenes tendrían poco efecto en los modelos de inteligencia artificial debido al gran tamaño de las bases de datos con las que se entrenan.

“Siempre va a haber imágenes que sean malas, y mientras no sean un número significativo no va a ser un gran problema”, argumenta la experta, que recuerda que estas técnicas de “envenenar” bases de datos ya se daban con anterioridad. Por ejemplo, en 2017 varios científicos del MIT engañaron a Google para que su inteligencia artificial identificara imágenes de tortugas como rifles de asalto.

Además, estos modelos cuentan con otros sistemas para evitar generar resultados defectuosos, como mecanismos de refuerzo negativo. Por ejemplo, cuando uno de estos modelos nos da a elegir entre varias imágenes, entiende que la que finalmente elegimos es el resultado óptimo y que el resto de contenidos no se “ajustan” a lo que habíamos pedido, por lo que va afinando sus resultados acorde a nuestras decisiones. “Entiendo que los artistas lo hagan para proteger sus imágenes, pero no creo que a las grandes empresas les afecte mucho. Tienen recursos para que si un modelo comienza a generar malos resultados, penalizarlo y cambiar sus resultados”, concluye Bolón.

En este artículo ha colaborado con sus superpoderes la maldita Verónica Bolón.

Verónica Bolón forma parte de Superpoderosas, un proyecto de Maldita.es en colaboración con FECYT que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de WhatsApp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Este artículo ha sido actualizado el 12 de febrero de 2024 para incluir información sobre C2PA. 


Primera fecha de publicación de este artículo: 03/11/2023

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.