MENÚ

Cómo los ciberdelincuentes están usando la inteligencia artificial para intentar timarte y cómo puedes protegerte

Publicado
Claves
  • Los timadores están utilizando la inteligencia artificial (IA) generativa como una herramienta más para llevar a cabo sus estafas
  • Pueden manipular vídeos, clonar las voces de nuestros seres queridos o perfeccionar sus intentos de timo haciendo uso de la IA
  • Para evitar que te la cuelen con contenido manipulado asegúrate de que la fuente es de fiar y analiza bien la calidad del contenido

Comparte
Categorías

Los ciberdelincuentes siempre están buscando nuevos métodos de timo con los que tratar de engañarnos. Para ello, pueden emplear herramientas tecnológicas que están al alcance de todos, como ciertos programas de inteligencia artificial (IA). Por ejemplo, pueden crear vídeos en los que manipulan la voz y la cara de los famosos para que digan cosas que, en realidad, jamás han dicho o clonar la voz de nuestros seres queridos durante una llamada de teléfono con el objetivo de hacerse con nuestros datos personales y nuestro dinero.

Como afirman los expertos consultados por Maldita.es, el problema no son las herramientas de IA en sí, sino los usos fraudulentos que le dan los timadores. Para protegernos de contenidos falsos generados con esta tecnología, el Instituto Nacional de Ciberseguridad (INCIBE) recomienda verificar siempre la fuente de la información y pararnos a analizar la calidad del contenido que nos están intentando colar.

Vídeos manipulados de famosos para promocionar falsas inversiones o falsos productos “milagro”

En Maldita.es llevamos años advirtiendo sobre los timos que usan caras conocidas para colártela, por ejemplo, con falsas inversiones en criptomonedas o con falsos productos “milagro” que te prometen adelgazar. Ahora, haciendo uso de herramientas de inteligencia artificial, los timadores pueden ir un paso más allá y manipular las declaraciones de personajes públicos en vídeos, clonando su voz o cambiando los movimientos de su cara.

Por ejemplo, en redes sociales ha circulado un vídeo manipulado en el que la presentadora Susanna Griso dice, supuestamente, que el empresario Florentino Pérez ha ganado grandes sumas de dinero con una supuesta plataforma de inversión. De esta forma, los ciberdelincuentes pretenden engañar a sus víctimas usando la imagen de personajes públicos que generan confianza. Una lectora de Maldita.es, tras visionar otro vídeo manipulado del presidente del Real Madrid, invirtió 250 euros en una supuesta entidad que el empresario recomendaba.

Capturas del vídeo manipulado de Susanna Griso y Florentino Pérez

Clonación de la voz de nuestros seres queridos en llamadas telefónicas (incluso en videollamadas)

Los ciberdelincuentes están empleando la inteligencia artificial para suplantar la voz de nuestros conocidos en llamadas telefónicas. Es decir, consiguen reproducir la voz de una persona en concreto y hacer que diga cosas que no ha pronunciado en ese contexto. Por ejemplo, el Instituto Nacional de Ciberseguridad (INCIBE) compartió el caso de una usuaria que recibió una llamada de un número desconocido, en la que escuchó la voz de su marido diciéndole: “¡Hola! No te puedo llamar, envíame un mensaje a este número (...)”. Tras contactar con su pareja se dio cuenta de que le habían suplantado la identidad

En Maldita.es os contamos el caso de Ana, una lectora que fue víctima de una estafa amorosa y perdió 7.000 dólares. El timador se hizo pasar por el actor británico James Norton e incluso le envió un audio en el que clonaba su voz

Los Mossos d’Esquadra también han advertido sobre el uso incipiente de estos “deepfakes de audio” para “obtener datos personales o transferencias de dinero”. De hecho, los investigadores han detectado intentos de timo con voces clonadas en el entorno laboral.

Existen herramientas de IA accesibles para los timadores y que son capaces de clonar voces a partir de unos pocos minutos de audio. De hecho, según los expertos consultados por Maldita.es, los timadores también pueden suplantar la identidad de conocidos y famosos a través de videollamadas. En tiempo real, pueden generar un mapa del rostro del timador y, sobre este, superponer una imagen generada por IA.

@malditobulo Circulan cada vez más contenidos que advierten de las videollamadas manipuladas con inteligencia artificial para suplantar la identidad de personas que conocemos . . . No son necesarios conocimientos técnicos y es relativamente sencillo conseguir datos para suplantar la identidad de alguien que cuente con la suficiente presencia online, según los expertos consultados . . . Para prevenirlo, evita dar información personal ante mensajes sospechosos o que generen urgencia Paula Gómez, jefa de #ciberseguridad en GMV, nos presta sus Superpoderes en este vídeo #superpoderesmaldita #videollamadas #ia #inteligenciartificial #ai #deepfake #video #suplantaciondeidentidad #estafas #noticiastiktok ♬ sonido original - Maldito Bulo

Perfeccionamiento de estafas usando herramientas de IA

Los cibercriminales también están utilizando chatbots conversacionales de inteligencia artificial, como ChatGPT, para perfeccionar sus estafas. A pesar de que la herramienta desarrollada por OpenAI tiene una serie de limitaciones para evitar que dé respuestas que puedan ser peligrosas, los timadores saben cómo saltarse las restricciones de seguridad.

Por ejemplo, si le pedimos a chatGPT que nos ayude a desarrollar un virus informático para hacernos con los datos bancarios de los usuarios, la máquina nos dirá que no puede ayudarnos y que es una actividad ilegal. 

Captura de la respuesta de ChatGPT

No obstante, los ciberdelincuentes pueden usar ChatGPT para redactar mejor emails de phishing o para elaborar código de páginas web fraudulentas o de programas maliciosos más rápidamente. Incluso se han popularizado nombres como WormGPT o FraudGPT, chatbots supuestamente diseñados para ayudar a los timadores a cometer ciberdelitos, sin restricciones. Aunque no está claro si son chatbots que realmente existen y funcionan, o si son en sí mismos una estafa.

Además, el INCIBE señala otros usos de la IA por parte de los ciberdelincuentes, como utilizar chatbots para hacerse pasar por agentes de soporte técnico e intentar engañar a los usuarios para que proporcionen acceso remoto a sus dispositivos o información personal.

La IA como gancho para atraer a las víctimas

Los ciberdelincuentes no sólo utilizan la inteligencia artificial como herramienta en sus ataques, también la usan como reclamo para que caigamos en sus trampas. La compañía de ciberseguridad ESET ha alertado de que los ciberdelincuentes están promocionando en redes sociales herramientas de IA generativa gratuitas para redirigir a los usuarios a páginas web fraudulentas. En lugar de un programa de IA, la víctima descarga en su ordenador malware con el que los atacantes pueden acceder a información confidencial, como contraseñas o datos bancarios.

Ejemplo de falsa herramienta de IA que descarga ‘malware’ en tu dispositivo

Consejos para que no te la cuelen con contenido generado con inteligencia artificial

Aquí van algunas pistas para detectar posible contenido falso generado con inteligencia artificial:

  • Verifica la fuente. Si te llega un contenido que crees que puede estar manipulado, asegúrate de que proviene de una “fuente confiable o con buena reputación” y comprueba si “otros medios o usuarios confiables” se han hecho eco de la misma información, según recomienda el INCIBE.

  • Analiza la calidad del contenido dependiendo del formato:

  • Si es un texto, el INCIBE sugiere fijarse en si tiene errores gramaticales o incoherencias que no serían habituales en textos escritos por humanos.

  • Si es un vídeo, presta atención a si el rostro se ve borroso o si los bordes de la cara no están bien definidos. Mira bien si los rasgos faciales no son naturales o son invisibles, borrosos o salen repetidos. Aquí encontrarás más consejos. Además, como indica el INCIBE, es posible que el sonido no concuerde bien con lo que enseña la imagen, mostrando desfases o variaciones en el tono. 

  • Si es un audio, el INCIBE aconseja analizar si el tono de voz de la persona y el ritmo del habla son consistentes. También puedes fijarte en el ruido de fondo: si no hay ruido o si escuchas sonidos extraños, podría tratarse de una manipulación. Y reflexiona sobre si lo que estás escuchando es lo que la persona normalmente diría en ese contexto.

Además, aquí tienes una lista de herramientas útiles para intentar detectar contenido generado con IA. Si has sido víctima de un engaño en el que crees que se empleaban herramientas de IA, puedes contarnos tu caso a través de nuestro buzón de timos ([email protected]).