Los timadores están haciendo uso de la inteligencia artificial (IA) para suplantar la identidad de personas a través de videollamadas, como es el caso de un empleado al que engañaron para que realizara una transferencia de 24 millones de euros, haciéndole creer que hablaba con su jefe. En ocasiones, los timadores se hacen pasar por familiares o personas cercanas a nosotros, como el timador que se hizo pasar por un amigo de la víctima para pedirle cerca de 475.000 euros.
Según los expertos, dependiendo de la presencia online de una persona es relativamente sencillo conseguir datos con los que se pueden entrenar los modelos de inteligencia artificial para suplantar su identidad, por lo que es necesario tomar algunas precauciones para evitar caer en este tipo de timos.
No es necesario contar con conocimientos técnicos para realizar este tipo de manipulaciones, según los expertos
“¡No creas en nada digital!”. Con este mensaje circula una publicación en redes sociales que alerta de la posibilidad de que nos timen con videollamadas manipuladas utilizando IA. En el vídeo, el protagonista altera su rostro utilizando esta tecnología para “intercambiarlo” por otras caras conocidas.
El objetivo de estas imágenes, según el usuario que publica el vídeo, es alertar de la posibilidad de que suplanten la identidad de personas cercanas a nosotros haciendo uso de inteligencia artificial. “Si esto le pasó a una empresa millonaria grande, que tiene todos los recaudos, todos los recursos, tiene seguridad y demás y les pasó, imagínate si te quieren engañar a vos”, se puede escuchar en el vídeo difundido.
¿Cómo de sencillo es realmente hacerlo? David Castillo, ingeniero en informática, investigador en IA y aprendizaje automático y maldito que nos ha prestado sus superpoderes, explica a Maldita.es que la posibilidad de generar estas manipulaciones “en última instancia dependerá de la habilidad y conocimientos del estafador”. Paula González, jefa de ciberseguridad en GMV y también maldita, matiza que “ahora mismo hay mucha información sobre cómo hacerlo”. González cuenta que a ella le llevó “unos 10 euros, unas 50 fotos y un par de horas de mi tiempo poder generar fotos con las que conseguí engañar a mi madre”.
Además, crear contenido manipulado no siempre requiere de tecnologías muy avanzadas. Aunque se ha popularizado el término deepfake para referirnos a los vídeos aparentemente generados utilizando herramientas basadas en inteligencia artificial, los deepfakes son aquellos que presentan un alto nivel de realismo y que se generan utilizando un tipo concreto de IA, las redes neuronales. Pero hay otro tipo de vídeos que, con técnicas mucho más sencillas, también pueden colárnosla: los cheapfakes, con un resultado de peor calidad y que se pueden crear simplemente con una aplicación que reemplace la cara de alguien. En cualquier caso, lo importante es saber cómo detectar vídeos manipulados con IA.
Cuanta más presencia online tenga una persona, más fácil será suplantar su identidad
Más allá de la complejidad de las técnicas, para generar un contenido sobre una persona en concreto hace falta tener recursos audiovisuales de ella; si hablamos de vídeo, harán falta imágenes con las que entrenar esa IA. “Ahora mismo, con la prominencia de las redes sociales y de internet, es razonablemente sencillo conseguir set de datos para suplantar a aquellas personas con cierta presencia online o a personalidades famosas”, explica González. Y añade que “para los ciudadanos anónimos, depende de cuánto cuelguen en internet para que un atacante pueda robar esta información”.
En cuanto a la voz, Zoraida Callejas, experta en síntesis de la voz y profesora titular del Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Granada, explica que “se puede clonar la voz de una persona con buenos resultados si se dispone de suficiente audio en Internet”, como puede ser el caso de personajes públicos como políticos. Pero explica que en el caso de alguien desconocido como el familiar de una persona sería difícil hacer una buena voz sintética si no se cuenta con suficiente audio. En Maldita.es te contamos cómo los estafadores pueden usar herramientas para suplantar la voz de nuestros conocidos y si es posible que usen nuestros audios de WhatsApp para entrenar una IA y suplantar nuestra identidad.
Sobre cuántos minutos de audio son necesarios para conseguir una buena voz sintética, Callejas explica que ha visto “voces que suenan muy parecidas a la persona entrenadas solo con tres minutos, pero se nota claramente que son sintéticas”. El contexto en el que se usan estas voces sintéticas también condiciona los minutos necesarios de audio para entrenarlas resultando en una voz creíble. “Si se va a usar para hablar en un vídeo de YouTube, es fácil identificar que es una voz falsa”, cuenta Callejas, comparándolo con la dificultad que supondría identificar que la misma voz es sintética en una supuesta llamada telefónica de auxilio que tenga ruido de fondo.
Con los ordenadores actuales es posible realizar estas manipulaciones en tiempo real
Hasta este punto sabemos que, por separado, es posible manipular la imagen y clonar la voz de una persona de forma realista a partir de una base de datos lo suficientemente amplia. Sin embargo, ¿es posible hacer esta manipulación de forma simultánea en tiempo real? González nos cuenta que “con la potencia de cómputo actual es razonablemente sencillo”.
En el caso de la imagen, el funcionamiento es similar al de los filtros que se utilizan en redes sociales. “Se genera un mapa del rostro del timador y, sobre éste, se superpone la imagen generada por IA”, explica la experta. El proceso en el que la inteligencia artificial aprende a partir del set de datos de la persona cuyo rostro queremos suplantar es el más costoso, según la experta.
Una vez hecho esto, bastaría con introducir el modelo entrenado en la herramienta. Clonar la voz es un proceso incluso más sencillo y “la existencia de softwares para modificar la voz lleva años en el mercado”, explica González.
Cada vez son más frecuentes las noticias sobre videollamadas manipuladas, pero no hay estadísticas sobre este tipo de timo
El INCIBE ha compartido casos de suplantaciones de identidad que incluyen una videollamada manipulada, como este intento de fraude amoroso que suplantó la identidad de un personaje público. El objetivo de los timadores suele ser conseguir dinero, datos personales o ambas cosas.
Desde Maldita.es hemos consultado al INCIBE y al Ministerio del Interior por estadísticas relacionadas con timos que usan videollamadas manipuladas utilizando inteligencia artificial, pero ninguno de los dos cuenta con estos datos.
Consejos para evitar ser víctima de estafas con videollamadas manipuladas con inteligencia artificial
Es necesario tomar algunas precauciones para no caer en este tipo de timos. Elena Gil, abogada especialista en derecho digital y protección de datos, cofundadora de Tech and Law y maldita que nos ha prestado sus superpoderes, nos da algunos consejos para que los usuarios nos protejamos ante este tipo de timos.
En primer lugar, recomienda tomar conciencia del peligro y de la posibilidad de que los timadores hagan uso de este tipo de herramientas, ya que “sin conocer el riesgo, no podemos saber si estamos en peligro”. A pesar de que los deepfakes pueden llegar a ser muy realistas, Gil indica que actualmente, uno de los puntos en los que los que presentan más fallos son “los ojos y las comisuras de la boca”. “Si prestas atención a estos puntos y ves que la imagen tiene errores, puede ser un intento de suplantación”, explica a Maldita.es.
Gil también aconseja evitar proporcionar información ante mensajes sospechosos, como aquellos que “usen técnicas que generen urgencia”. En Maldita.es te contamos el caso de Clara Grima, matemática y víctima de un timo después de que los ciberdelincuentes robaran la cuenta de WhatsApp de su hermana y le enviaran un mensaje falso.
“La cuestión es que las voces que se usan en las estafas telefónicas a veces no son clones, son incluso personas cuya voz suena totalmente diferente”, explica Callejas. “En este tipo de estafas juegan con darte prisa y ponerte nervioso para que no tengas herramientas para sosegadamente darte cuenta de lo que ocurre”. Así que, si te llega un mensaje así, tómate un segundo para pararte a pensar si lo que estás viendo es real y contacta con el familiar o amigo que aparentemente te esté mandando ese mensaje,
Si piensas que has sido víctima de este timo puedes contarnos tu historia escribiéndonos a [email protected].
En este artículo ha colaborado con sus superpoderes la maldita Elena Gil, abogada especialista en derecho digital y protección de datos y cofundadora de Tech and Law, el maldito David Castillo, ingeniero en informática e investigador en IA y aprendizaje automático y la maldita Paula González, jefa de ciberseguridad en GMV.
Elena Gil González y Paula González forman parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.
Maldito Timo cuenta con el apoyo de: