MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: cómo detectar un 'deepfake' y dónde se usan, vídeos espeluznantes de TikTok que narran sucesos en primera persona y qué es OSINT

Publicado
Comparte
Categorías
Recursos utilizados
Búsqueda de Google
Material producción propia

¡Feliz sábados, malditos y malditas! En Fundación Maldita.es estamos de resaca emocional porque esta semana hemos celebrado los ¡SEIS AÑOS DE MALDITA! El periodista y referente Gumersindo Lafuente nos dijo que Maldita.es es de lo mejor que le ha pasado al periodismo en España y eso, evidentemente, nos emociona mucho. Además, no solo hacemos periodismo, hacemos mucho más. Gracias también a vosotros por formar parte de nuestra lucha contra la desinformación. Ahora sí, vamos con la actualidad tecnológica de la semana. Hoy nos centramos en los deepfakes y otros contenidos generados con IA.

Cómo identificar un vídeo manipulado con IA

Seguro que te suena eso de deepfake, por aquí lo hemos tratado ya en varias ocasiones. Son vídeos ultrarrealistas manipulados con inteligencia artificial: alteran la cara, el movimiento de los labios, la voz o el cuerpo de una persona para que haga o diga cosas que en realidad no han sucedido. Con lo que nos gusta un palabro en el mundo tech, cuando se pone de moda, lo explotamos, y el concepto deepfake se ha convertido en un término abstracto que a veces se usa sin ton ni son, encabeza titulares y categoriza cualquier vídeo que haya sido manipulado o imágenes hiperrealistas generadas con IA.

¿Todo es deepfake? No, porque depende de que se hayan usado técnicas concretas de IA para crearlo (redes neuronales, en particular). Así lo entendemos por lo que significa el término, así nos lo han recomendado muchos expertos y expertas, y así lo hacen otros medios y organizaciones, así que así lo usamos en Maldita.es (porque consenso oficial lo cierto es que no hay).

En cualquier caso, más allá de terminología y tecnicismos, lo importante es que sepamos identificar que un contenido está generado con inteligencia artificial para que no nos la cuelen y no nos engañen. Así que hemos recopilado algunos consejos que te dejamos aquí detallados: debemos fijarnos en el contorno del perfil, si el rostro está borroso, si algo pasa por delante (por ejemplo, una mano) y la cara se va al garete y se nota algo raro, si la parte de la cabeza o el cuerpo tienen una perspectiva diferente al resto del vídeo, o si hay desajustes en el color de piel (que no coincidan orejas y cara o cosas así). En este vídeo también te lo contamos.

Ojo al 'deepfake' desinformador

¿Y por qué es tan importante que no nos la cuelen con vídeos generados con inteligencia artificial? Pues porque esta tecnología se puede usar de manera profesional en publicidad, cine o con fines artísticos, sí, pero también con malas intenciones para suplantar la identidad de una persona y difundir desinformación. En escenarios de conflictos, a veces los deepfake se usan como arma.

Una investigación de la universidad irlandesa de Cork ha analizado el impacto de estos contenidos como instrumentos de desinformación y propaganda en tiempos de guerra. En concreto, cerca de 5.000 tuits durante la actual guerra entre Rusia y Ucrania, como hemos leído en SINC. Los deepfakes pueden resultar especialmente dañinos porque permiten apropiarse de la identidad de figuras públicas, como sucedió con el vídeo del presidente de Ucrania, Volodímir Zelenski, en el que supuestamente pedía a sus tropas rendirse y dejar las armas ante el ejército ruso. Esta información era falsa: se trataba de un vídeo manipulado con IA. Estos contenidos también se han relacionado con teorías conspirativas del conflicto.

Otros usos ‘cuestionables’ de la IA en vídeos

Y no solo se trata de desinformación. El origen de los deepfakes está en el porno, en crear contenidos sexuales sin el permiso ni conocimiento de las víctimas, que casi siempre son mujeres. Investigaciones han recogido que el 96% de los vídeos que emplean esta tecnología usan imágenes de mujeres, en su mayoría famosas, para contenidos sexuales sin su consentimiento. Pero hay más: un nuevo análisis sobre vídeos porno deepfake no consentidos publicado por WIRED confirma que el número de contenidos se está disparando, han aumentado un 54% solo en los nueve primeros meses de 2023 respecto a 2022. Y es un problema global.

Hay más noticias relacionadas con la IA para llevarse las manos a la cabeza. Esta semana, en Barcelona, un menor de 14 años ha sido detenido por modificar con inteligencia artificial fotos de niños para convertirlas en imágenes de contenido sexual. Ya te he contado tristemente más de una vez cómo se está usando la IA para crear contenidos sexuales de menores y qué dice la ley. Si los autores del delito son menores de edad, sus responsabilidades penales son diferentes y también las medidas que se imponen. Recordamos aquí qué hacer si te encuentras tu cara o la de un menor a tu cargo en una imagen sexual creada con IA (o con cualquier otra tecnología).

Por último, la IA también se está usando en unos vídeos bastante dantescos en TikTok que cuentan historias de crímenes, fallecimientos, desapariciones, sucesos extraños o personajes históricos. Son vídeos creados con inteligencia artificial a partir de una imagen generada con IA que se anima para dar movimiento al rostro. Los protagonistas miran a cámara y te cuentan su historia en primera persona. En muchos de los casos, son menores de edad. Por ejemplo, hay un vídeo sobre el fallecimiento del niño Julen Roselló. ¿Dicta algo la ley sobre todo esto? Aquí te contamos por qué pueden ser una intromisión ilegítima en la protección del honor, la intimidad y la propia imagen.

En tres bits

- OSINT, inteligencia de fuentes abiertas. Contra la inteligencia artificial y la desinformación, la inteligencia humana. Estos días estamos hablando mucho de la comunidad OSINT, las investigaciones OSINT, las herramientas OSINT… Estas siglas hacen referencia a Open Source Intelligence, inteligencia de fuentes abiertas, un tipo de investigaciones que se valen de todo tipo de fuentes públicas y al alcance de todos como fotografías, mapas, geolocalización, publicaciones de redes sociales, listados y otra información pública. El objetivo es contrastar sucesos (también de conflictos bélicos, como hemos hecho en la investigación OSINT sobre la explosión en el complejo hospitalario Al-Ahli Arab de Gaza) y reconstruir el relato de eventos de los que no estamos seguros. Un buen uso de la tecnología, como debe ser.

- ¿Te va rápido internet? Qué nerviosos nos ponemos cuando internet parece que no tira, reinicias el router, sigue yendo a pedales… Pues en España no lo tenemos tan crudo como en otros países de Europa. Statista ha recopilado datos de la velocidad de internet en el continente. A la cabeza: Liechtenstein, Islandia, Andorra, Luxemburgo y Francia. A la cola, Croacia y Albania.

- Patrones oscuros y una multa. Ese último asiento a un determinado precio o que haya supuestamente ocho personas más viendo el mismo alojamiento que tú… ¿Te suena, no? Eso son patrones oscuros, estrategias basadas en la experiencia del consumidor cuyo objetivo es engañarnos para que hagamos algo bajo presión. Pues la Ley de Servicios Digitales quiere poner coto a los patrones oscuros en Europa y en España la AEPD ha sancionado por primera vez a una empresa por utilizarlos. Lo contamos aquí.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.