menu MENÚ
MALDITA TECNOLOGÍA

De la cámara del móvil a los filtros en redes sociales (y sus sesgos): cómo la IA ya forma parte de nuestras fotografías

Publicado
Actualizado
Claves
  • Algunas compañías han comenzado a implementar la inteligencia artificial generativa en las cámaras de nuestros móviles
  • El uso de esta tecnología en la fotografía aumenta las dificultades para identificar una imagen en la que ha intervenido la IA de una 100% real
  • La inteligencia artificial también tiene sesgos que pueden afectar a nuestra salud mental, como los filtros en redes sociales, de los que a veces no somos conscientes
Comparte
Etiquetas

Los avances en inteligencia artificial (IA) no sólo nos permiten crear imágenes con tan solo unas pocas instrucciones, también nos facilitan editar fotografías con facilidad o directamente sacar nuestro mejor perfil en el momento que nos hacemos un selfie con la cámara del móvil. Pero este uso de la tecnología también va acompañado de algunas dudas y preocupaciones sobre cómo diferenciar una imagen real de una falsa (a estas alturas… ¿qué es una imagen real?), el impacto que los filtros pueden tener en nuestra salud mental y los sesgos de la inteligencia artificial. Lo hablamos con expertos y expertas en la Maldita Twitchería Tecnológica.

A un clic, ¿de qué hablamos en este tema? Pincha para ampliar

  • Cómo la IA ya está incluida en las cámaras de nuestros móviles

  • El uso de la IA en la fotografía siembra dudas sobre el origen de una imagen

  • Los filtros en redes sociales puede afectar a nuestra salud mental

  • La IA presenta sesgos que pueden discriminar a algunas personas y grupos 

    Cómo la IA ya está incluida en las cámaras de nuestros móviles

    La inteligencia artificial poco a poco ha ido evolucionando para integrarse en el mundo de la fotografía y ya nos permite, por ejemplo, mejorar imágenes antiguas o que tengan poca resolución. Herramientas como el escalado de imagen que ofrece PixelCut o las que vienen directamente instaladas en algunos dispositivos posibilitan restaurar instantáneas que, por limitaciones técnicas o por las condiciones en las que se han tomado, tenían muy poca calidad. 

    Pero estas aplicaciones no son perfectas y en ocasiones pueden mostrar fallos o imperfecciones que nos permiten saber o intuir que han sido creadas con IA, cuando en realidad lo que se ha hecho ha sido editarlas con esta tecnología. Es el caso de esta imagen del presidente del Gobierno Pedro Sánchez usando un móvil en el Senado y que se difundió como si hubiera sido generada con herramientas como Dall-E o Midjourney, pese a que se trata de una imagen real.

    Pero el avance ahora se encuentra en la incorporación de la inteligencia artificial generativa directamente en la cámara de nuestro móvil. Es decir, que nuestro teléfono es capaz de analizar las imágenes que tomamos y proponer lo que considera mejoras, aunque el resultado no se ajuste a la fotografía original. Esta es la propuesta de algunas compañías como Google, que ha introducido esta tecnología en sus modelos Pixel 8. Gracias a la IA estos móviles nos permiten realizar varias tomas diferentes y seleccionar la mejor cara de cada uno de las personas que aparezcan en el retrato o eliminar elementos indeseados de una instantánea, como personas u objetos.

    Michael McLoughlin, periodista de Tecnología en El Confidencial, nos explicó en la Twichería de Maldita Tecnología cómo la implementación de esta tecnología en la cámara de nuestros móviles responde a las limitaciones físicas de los dispositivos, ya que los sensores de las cámaras cada vez tienen más dificultades para reducir su tamaño y mejorar su calidad. “En este momento las compañías se centran en el software y en el procesado de imágenes o en el reescalado digital”, apunta el experto, que también argumenta que “estos procesos pueden llegar a ser muy agresivos. “Es un resultado muy artificial”

    El uso de la IA en la fotografía siembra dudas sobre el origen de una imagen

    ¿Pero qué ocurre si en el momento que hacemos la foto la inteligencia artificial ya altera lo que vemos? ¿Ya no nos vamos a poder fiar de nada? Según McLoughlin, la llegada de la inteligencia artificial a un tema “tan sensible como la fotografía” plantea muchas dudas éticas sobre el uso de esta tecnología, ya que “abre el reto de identificar estas imágenes” para saber si son reales o si han sido creadas con inteligencia artificial. “Las herramientas de edición siempre han estado ahí, pero ahora están al alcance de todos”, resalta el experto.

    Por ahora no hay una solución definitiva para este dilema. Por un lado, compañías como Google están trabajando en el desarrollo de marcas de agua que podrían ayudar a identificar las imágenes manipuladas con IA. Pero algunos estudios apuntan a que este método se podría sortear con facilidad en el caso de las imágenes artificiales o incluso se podría usar para marcar otras fotografías que sí son reales y crear falsos positivos, lo que dificulta esta tarea.

    Otra solución podría pasar por marcar una fotografía en el mismo momento que se realiza. Es la apuesta de la compañía Leica, que en sus nuevas cámaras fotográficas ha incorporado tecnología de encriptado para identificar cada imagen, en qué momento se hizo y bajo qué condiciones. Sony también está colaborando con Associated Press para desarrollar tecnología capaz de marcar una fotografía en el momento que se haga y poder separarla de otros contenidos generados con IA. Pero aún habrá que esperar para ver si estas herramientas nos podrán ayudar a diferenciar lo que es real de lo que no y si se convierten en un estándar dentro de la industria. Vamos, que por el momento no hay una respuesta definitiva.

El uso filtros en redes sociales puede afectar a nuestra salud mental

La verificación de las imágenes que han sido editadas no es el único dilema que presentan estas herramientas, también hay dudas sobre el impacto que pueden tener estas fotografías retocadas en nuestra salud mental. Este fenómeno ha crecido tanto que ya tiene un nombre propio, dismorfia del selfie: un tipo de trastorno dismórfico corporal (preocupaciones por nuestro aspecto físico que causan gran malestar) que tiene su raíz en el uso de filtros en redes sociales y que alteran la imagen que tiene una persona de sí misma.

Iris Domínguez, doctoranda en detección y mitigación de sesgos en aprendizaje automático e IA equitativa en la Universidad Pública de Navarra, nos detalló en la Twichería de Maldita Tecnología cómo estos filtros vienen activados “por defecto” sin que el usuario lo sepa, lo que puede afectar a la percepción que tenemos de nosotros mismos y de los demás. “Es un poco como el síndrome de París (la impresión de que esta ciudad es más bonita en las películas que como se ve en persona), en el que la realidad no se corresponde con las imágenes que vemos. Vamos perdiendo las nociones sobre nosotros mismos y vemos que se disparan los casos relacionados con la salud mental. Nuestra percepción se está alterando completamente”, argumenta.

Estas herramientas han evolucionado hasta el punto de que son indistinguibles de la realidad. Es el caso de Bold Glamour, un filtro creado con inteligencia artificial y que se viralizó en redes sociales por lo difícil que era de detectar. “Los filtros que teníamos hace unos años entraban dentro del valle inquietante (sensación de malestar ante algo que intenta imitar la realidad sin éxito), eran muy evidentes, pero ahora son indetectables”, detalla Domínguez, que incide en que los algoritmos de las redes sociales penalizan a quiénes no los utilizan, otro factor que contribuye a que perdamos “la noción de lo que es real”.

La inteligencia artificial también presenta sesgos que pueden discriminar a algunas personas y grupos 

Las imágenes generadas con IA también tienen sesgos que discriminan a algunas personas y colectivos. Es lo que sucede con Lensa, una herramienta para crear un avatar virtual a partir de una imagen nuestra. Mientras que en hombres esta aplicación crea imágenes relacionadas con fantasías de poder, usuarias como la periodista Melissa Heikkilä han denunciado que esta aplicación ha generado contenidos pornográficos a partir de su imagen después de que Lensa interpretara que era una mujer asiática, ya que el algoritmo se entrenó (entre otras cosas) con imágenes sexualizadas recogidas de la web. 

Diferentes colectivos, como las personas trans, también se ven afectadas por estos sesgos. La aplicación FaceApp es capaz de cambiar el rostro de mujer a hombre y viceversa, pero “para las personas trans creaba versiones idealizadas que son inalcanzables" que incidían en la disforia de género, apunta Domínguez. Otras aplicaciones de reconocimiento facial e identificación de género tampoco están diseñadas con el colectivo trans en mente y muestran muchos fallos a la hora de describir correctamente sus rostros. 

¿Cómo se puede solucionar el problema de los sesgos?Domínguez apunta a que uno de los grandes desafíos es que las bases de datos con las que se entrenan estas inteligencia artificiales son demasiado grandes como para poder eliminar estos contenidos discriminatorios. “Estos cambios sólo los podemos hacer con sistemas simples diseñados para una tarea concreta. Pero en los modelos grandes no se está haciendo una mitigación real, cuesta millones reentrenar el modelo, por lo que sólo se eliminan los resultados polémicos. Se están poniendo parches”, explica la experta, que incide en que estas inteligencias artificiales “se han entrenado intencionadamente con imágenes violentas, pornografía… de todo”. “Si subes basura, sólo tendrás basura y no podemos limpiar esos datos”, concluye.


Primera fecha de publicación de este artículo: 30/11/2023

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.