Los ciberdelincuentes siempre están buscando nuevos métodos de timo con los que tratar de engañarnos. Para ello, pueden emplear herramientas tecnológicas que están al alcance de todos, como ciertos programas de inteligencia artificial (IA). Por ejemplo, pueden crear vídeos en los que manipulan la voz y la cara de los famosos para que digan cosas que, en realidad, jamás han dicho o clonar la voz de nuestros seres queridos durante una llamada de teléfono con el objetivo de hacerse con nuestros datos personales y nuestro dinero.
Como afirman los expertos consultados por Maldita.es, el problema no son las herramientas de IA en sí, sino los usos fraudulentos que le dan los timadores. Para protegernos de contenidos falsos generados con esta tecnología, el Instituto Nacional de Ciberseguridad (INCIBE) recomienda verificar siempre la fuente de la información y pararnos a analizar la calidad del contenido que nos están intentando colar.
Vídeos manipulados de famosos para promocionar falsas inversiones o falsos productos “milagro”
En Maldita.es llevamos años advirtiendo sobre los timos que usan caras conocidas para colártela, por ejemplo, con falsas inversiones en criptomonedas o con falsos productos “milagro” que te prometen adelgazar. Ahora, haciendo uso de herramientas de inteligencia artificial, los timadores pueden ir un paso más allá y manipular las declaraciones de personajes públicos en vídeos, clonando su voz o cambiando los movimientos de su cara.
Por ejemplo, en redes sociales ha circulado un vídeo manipulado en el que la presentadora Susanna Griso dice, supuestamente, que el empresario Florentino Pérez ha ganado grandes sumas de dinero con una supuesta plataforma de inversión. De esta forma, los ciberdelincuentes pretenden engañar a sus víctimas usando la imagen de personajes públicos que generan confianza. Una lectora de Maldita.es, tras visionar otro vídeo manipulado del presidente del Real Madrid, invirtió 250 euros en una supuesta entidad que el empresario recomendaba.
Clonación de la voz de nuestros seres queridos en llamadas telefónicas (incluso en videollamadas)
Los ciberdelincuentes están empleando la inteligencia artificial para suplantar la voz de nuestros conocidos en llamadas telefónicas. Es decir, consiguen reproducir la voz de una persona en concreto y hacer que diga cosas que no ha pronunciado en ese contexto. Por ejemplo, el Instituto Nacional de Ciberseguridad (INCIBE) compartió el caso de una usuaria que recibió una llamada de un número desconocido, en la que escuchó la voz de su marido diciéndole: “¡Hola! No te puedo llamar, envíame un mensaje a este número (...)”. Tras contactar con su pareja se dio cuenta de que le habían suplantado la identidad.
En Maldita.es os contamos el caso de Ana, una lectora que fue víctima de una estafa amorosa y perdió 7.000 dólares. El timador se hizo pasar por el actor británico James Norton e incluso le envió un audio en el que clonaba su voz.
Los Mossos d’Esquadra también han advertido sobre el uso incipiente de estos “deepfakes de audio” para “obtener datos personales o transferencias de dinero”. De hecho, los investigadores han detectado intentos de timo con voces clonadas en el entorno laboral.
Existen herramientas de IA accesibles para los timadores y que son capaces de clonar voces a partir de unos pocos minutos de audio. Es más, según los expertos consultados por Maldita.es, los timadores también pueden suplantar la identidad de conocidos y famosos a través de videollamadas. En tiempo real, pueden generar un mapa del rostro del timador y, sobre este, superponer una imagen generada por IA.
@malditobulo Circulan cada vez más contenidos que advierten de las videollamadas manipuladas con inteligencia artificial para suplantar la identidad de personas que conocemos . . . No son necesarios conocimientos técnicos y es relativamente sencillo conseguir datos para suplantar la identidad de alguien que cuente con la suficiente presencia online, según los expertos consultados . . . Para prevenirlo, evita dar información personal ante mensajes sospechosos o que generen urgencia Paula Gómez, jefa de #ciberseguridad en GMV, nos presta sus Superpoderes en este vídeo #superpoderesmaldita #videollamadas #ia #inteligenciartificial #ai #deepfake #video #suplantaciondeidentidad #estafas #noticiastiktok ♬ sonido original - Maldito Bulo
Perfeccionamiento de estafas usando herramientas de IA
Los cibercriminales también están utilizando chatbots conversacionales de inteligencia artificial, como ChatGPT, para perfeccionar sus estafas. A pesar de que la herramienta desarrollada por OpenAI tiene una serie de limitaciones para evitar que dé respuestas que puedan ser peligrosas, los timadores saben cómo saltarse las restricciones de seguridad.
Por ejemplo, si le pedimos a chatGPT que nos ayude a desarrollar un virus informático para hacernos con los datos bancarios de los usuarios, la máquina nos dirá que no puede ayudarnos y que es una actividad ilegal.
No obstante, los ciberdelincuentes pueden usar ChatGPT para redactar mejor emails de phishing o para elaborar código de páginas web fraudulentas o de programas maliciosos más rápidamente. Incluso se han popularizado nombres como WormGPT o FraudGPT, chatbots supuestamente diseñados para ayudar a los timadores a cometer ciberdelitos, sin restricciones. Aunque no está claro si son chatbots que realmente existen y funcionan, o si son en sí mismos una estafa.
Además, el INCIBE señala otros usos de la IA por parte de los ciberdelincuentes, como utilizar chatbots para hacerse pasar por agentes de soporte técnico e intentar engañar a los usuarios para que proporcionen acceso remoto a sus dispositivos o información personal.
La IA como gancho para atraer a las víctimas
Los ciberdelincuentes no sólo utilizan la inteligencia artificial como herramienta en sus ataques, también la usan como reclamo para que caigamos en sus trampas. La compañía de ciberseguridad ESET ha alertado de que los ciberdelincuentes están promocionando en redes sociales herramientas de IA generativa gratuitas para redirigir a los usuarios a páginas web fraudulentas. En lugar de un programa de IA, la víctima descarga en su ordenador malware con el que los atacantes pueden acceder a información confidencial, como contraseñas o datos bancarios.
Consejos para que no te la cuelen con contenido generado con inteligencia artificial
Aquí van algunas pistas para detectar posible contenido falso generado con inteligencia artificial:
Verifica la fuente. Si te llega un contenido que crees que puede estar manipulado, asegúrate de que proviene de una “fuente confiable o con buena reputación” y comprueba si “otros medios o usuarios confiables” se han hecho eco de la misma información, según recomienda el INCIBE.
Analiza la calidad del contenido dependiendo del formato:
Si es un texto, el INCIBE sugiere fijarse en si tiene errores gramaticales o incoherencias que no serían habituales en textos escritos por humanos.
Si es un vídeo, presta atención a si el rostro se ve borroso o si los bordes de la cara no están bien definidos. Mira bien si los rasgos faciales no son naturales o son invisibles, borrosos o salen repetidos. Aquí encontrarás más consejos. Además, como indica el INCIBE, es posible que el sonido no concuerde bien con lo que enseña la imagen, mostrando desfases o variaciones en el tono.
Si es un audio, el INCIBE aconseja analizar si el tono de voz de la persona y el ritmo del habla son consistentes. También puedes fijarte en el ruido de fondo: si no hay ruido o si escuchas sonidos extraños, podría tratarse de una manipulación. Y reflexiona sobre si lo que estás escuchando es lo que la persona normalmente diría en ese contexto.
Si es una imagen, fíjate en detalles pequeños como las manos, las orejas, el cabello o la mirada, ya que podrían presentar fallos. Comprueba también si el fondo de la imagen es borroso. El INCIBE aconseja comprobar también si la iluminación y las sombras son coherentes en toda la foto.
Además, aquí tienes una lista de herramientas útiles para intentar detectar contenido generado con IA. Si has sido víctima de un engaño en el que crees que se empleaban herramientas de IA, puedes contarnos tu caso a través de nuestro buzón de timos ([email protected]).