menu MENÚ
MALDITA TECNOLOGÍA

Si ya no nos fiamos de lo digital, ¿tiene sentido certificar que algo sí lo ha hecho un humano?

Publicado
Claves
  • Ante las críticas y cuestionamientos recibidos en redes sociales, varios artistas han tenido que demostrar que sus obras no se habían generado con inteligencia artificial
  • Han surgido empresas y proyectos que proponen certificar que una obra ha sido producida por un ser humano para diferenciarla de los contenidos generados con IA
  • Existen herramientas que prometen diferenciar las imágenes generadas con inteligencia artificial de fotografías reales, pero no son infalibles y cometen errores
Comparte
Etiquetas

Cada vez es más difícil distinguir una imagen generada con inteligencia artificial (IA) de una obra original y es común encontrarse en redes sociales con dudas sobre si una fotografía o una ilustración es real. Varios países están trabajando en medidas regulatorias para identificar este tipo de contenidos, pero por el momento soluciones como la detección automática de imágenes no ofrecen las garantías suficientes para determinar si algo es IA o no

Ante la dificultad de diferenciar cuándo una imagen ha sido generada por esta tecnología y cuándo no, hay compañías y proyectos que ofrecen certificar que un trabajo sí ha sido creado por un ser humano a través de auditorías, documentación y entrevistas a los artistas. 

Algunos artistas han tenido que demostrar que su trabajo no ha sido hecho con inteligencia artificial

El uso de la inteligencia artificial en sectores creativos, como en campañas publicitarias o concursos, ha protagonizado algunas polémicas y dudas sobre el uso de estas herramientas dentro del mundo de las artes. Es el caso de las ilustraciones difundidas por el Ministerio de Juventud por el Día Internacional de la Mujer y la Niña en la Ciencia, que fueron retiradas tras las acusaciones de que habían sido generadas íntegramente con inteligencia artificial. Tras esta polémica el Ministerio de Cultura publicó una guía de buenas prácticas que incluye, entre otras cosas, recomendaciones para que estas imágenes no sustituyan el trabajo de los artistas o no reciban Premios Nacionales. 

Capturas de pantalla de las ilustraciones difundidas por el Ministerio de Juventud e Infancia. Fuente: Ministerio de Juventud e Infancia.

En otras ocasiones se ha dado la situación contraria y se ha acusado a artistas de haber difundido imágenes generadas con inteligencia artificial, cuando se trataba de creaciones originales. Es el caso del artista Nestor Ossandon, que fue acusado de usar este tipo de herramientas en una de sus ilustraciones para el Manual del jugador del juego de mesa Dungeons & Dragons. Tanto la compañía como el ilustrador tuvieron que desmentir que la imagen había sido generada con IA. Otros artistas como Campbel White o Ben Moran también han tenido que demostrar que sus obras no habían sido generadas con esta tecnología.

El artista Nestor Ossandon difundió los bocetos de una de sus ilustraciones para demostrar que no había sido generada con inteligencia artificial. Fuente: Nestor Ossandon.

Hay proyectos y compañías dedicadas a verificar que una obra sí ha contado con intervención humana

Ante las dudas sobre si un contenido ha sido generado con inteligencia artificial han surgido propuestas como la By Humans: una compañía española dedicada a certificar que un texto, una canción o una producción audiovisual ha sido elaborada por un ser humano y no ha sido generada por una de estas aplicaciones.

Lucía Polinario, CEO de By Humans, detalla a Maldita.es que para esta certificación se realiza una auditoría de las obras que se quieren verificar, por lo que se revisan una a una de forma manual. Para ello se conducen entrevistas personales a los creadores y se solicita diferente información a los artistas, como qué programas han usado o qué técnicas se han empleado, para determinar el origen de una ilustración, una fotografía o una canción. Por último se emplean programas de detección de contenidos de IA, como Copyleaks, por si hubiera algún detalle que se haya escapado al ojo humano. Un procedimiento que pone los esfuerzos en demostrar el nivel de participación de una persona en una creación.

Además, sólo pueden optar empresas que demuestren no haber usado la IA durante los últimos 6 meses y hay que firmar un reglamento que incluye penalizaciones de hasta 100.000€, en caso de que se emplee esta tecnología en un producto ya certificado. La marca de verificación By Humans está registrada en la Oficina Europea de Propiedad Intelectual (EUIPO), por lo que cuenta con validez dentro de la Unión Europea para certificar este tipo de contenidos, remarca Polinario.

No es el único proyecto que propone certificar el trabajo humano. La Coalición para la Procedencia y Autenticidad de Contenido (C2PA, por sus siglas en inglés), una alianza formada por compañías como Adobe, The New York Times y Twitter (ahora X), también busca crear un protocolo para comprobar que una imagen o un vídeo en internet ha sido creado por una persona y no con aplicaciones como DALL-E o Midjourney. 

Para ello proponen la implementación de una ficha técnica común que recoja quién es el autor de una imagen, con qué programa de edición ha trabajado y qué modificaciones se han realizado. Una información que cualquier usuario puede consultar y que puede servir como una medida para evitar este tipo de acusaciones o para comprobar la fuente de un contenido en la red.


Las herramientas de detección automática no son infalibles y sigue siendo necesario analizar las obras a nivel individual

Pero, ¿tiene sentido hacer todo este esfuerzo para verificar si algo ha sido creado por un humano? ¿No existen herramientas que puedan agilizar este proceso? Lo cierto es que, aunque aplicaciones como GPT Zero o AI or Not prometan detectar textos o imágenes generados con IA de forma automática, por el momento no son herramientas fiables al 100%

Así lo explica a Maldita.es Fernando Martin Rodríguez, miembro del Grupo de Dispositivos de Alta Frecuencia del centro AtlantTIC y uno de los creadores de un modelo de inteligencia artificial capaz de detectar imágenes generadas con esta tecnología, con un 95% de precisión. Aunque este tipo de aplicaciones tengan porcentajes muy altos de éxito, el experto detalla que “nunca se sabe si acertará o no en el próximo intento”, por lo que, por el momento, no pueden ser la única herramienta para determinar si una imagen es real o falsa. “La inteligencia artificial discriminativa no es infalible, al igual que no lo es la generativa”, asegura el experto.

Julio Gonzalo, investigador en Procesamiento del Lenguaje Natural y Recuperación de Información en la UNED y maldito que nos ha cedido sus superpoderes, también incide en que este tipo de herramientas no son una solución perfecta y que aún son más imprecisas a la hora de analizar texto escrito. “Un texto tiene mucha menos información que una imagen. Incluso en el mejor de los casos, nunca van a ser lo suficientemente fiables como para poder penalizar a un autor, el nivel de error es demasiado alto para darle crédito a su veredicto”, argumenta el experto. Por lo que, por el momento, aún hace falta el factor humano a la hora de determinar si un contenido ha sido generado con IA o no al 100%. 

En este artículo ha colaborado con sus superpoderes el maldito Julio Gonzalo, investigador en Procesamiento del Lenguaje Natural y Recuperación de Información en la UNED.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de WhatsApp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.