MENÚ

Cómo los timadores están clonando voces de nuestros seres queridos con herramientas sencillas y usando sólo unos minutos de audio como muestra

Publicado
Claves
  • Cuerpos policiales e instituciones están advirtiendo del uso que están haciendo los timadores de la inteligencia artificial (IA) para clonar voces de familiares o conocidos
  • Según los expertos consultados, existen herramientas accesibles que son capaces de clonar voces con muestras de pocos minutos de audio
  • Si recibimos una llamada o un audio sospechoso, debemos contrastar la información con la persona a la que podrían estar suplantando la identidad

Comparte
Etiquetas

En Maldita.es ya os hemos contado cómo es posible que los estafadores utilicen la inteligencia artificial para generar voces clonadas. Ahora, cuerpos policiales e instituciones están alertando de casos reales en los que se está empleando está tecnología para timar a las víctimas. Los usuarios están recibiendo audios o llamadas telefónicas en las que identifican la voz de familiares o compañeros de trabajo, con el objetivo final de hacerse con sus datos personales o su dinero.

Según los expertos consultados por Maldita.es, existen herramientas al alcance de los timadores, fáciles de usar, para las que no es necesario tener grandes conocimientos técnicos. Te contamos cómo funcionan estas herramientas y qué podemos hacer para prevenir timos con voces clonadas.

Casos en los que los timadores hacen uso de voces clonadas para engañar a las víctimas

Los Mossos d’Esquadra han advertido sobre el uso de “deepfakes de audio” durante llamadas de teléfono: “Simulan las voces de personas conocidas, como por ejemplo de familiares, para, bajo cualquier pretexto, obtener datos personales o transferencias de dinero”. Por su parte, el Instituto Nacional de Ciberseguridad (INCIBE) también ha compartido el caso de una usuaria que recibió una llamada de un número desconocido y escuchó la voz de su marido diciéndole: “¡Hola! No te puedo llamar, envíame un mensaje a este número (...)”. Tras contactar con su pareja a través de su número de teléfono habitual, se dio cuenta de que le estaban suplantando la identidad

En Maldita.es publicamos el caso de Ana, una lectora que cayó en un timo amoroso. El ciberdelincuente se hizo pasar por el actor británico James Norton e incluso envió un audio a la víctima en el que se suplantaba la voz del actor.

Los intentos de estafa con voces clonadas también se pueden dar en el entorno laboral. “Ya estamos teniendo casos. Por ejemplo, un trabajador de una gasolinera recibe un audio en el que identifica como interlocutor a un compañero de trabajo, que le pide que haga una transferencia de dinero”, apuntó en rueda de prensa José Ángel Merino, director del área de delitos económicos de los Mossos d’Esquadra.

Existen herramientas al alcance de los timadores para clonar voces con tan sólo unos minutos (o segundos) de audio

A día de hoy, las herramientas que sirven para clonar voces son accesibles al público general y fáciles de utilizar, según explican los expertos consultados por Maldita.es. “Suelen ser de pago, pero una vez vencida la barrera de meter la tarjeta, no son caras”, señala Carmen Torrijos, lingüista computacional, responsable de IA en Prodigioso Volcán y maldita que nos ha prestado sus superpoderes.

Roberto Carreras, director de marketing de voz en LLYC, explica que, por ejemplo, una de estas herramientas permite subir archivos de audio de una voz, que queda registrada en la aplicación. “Puedes escribir cualquier texto para que sea reproducido con esa voz y el resultado te lo puedes descargar en formato mp3. También puedes reproducir el texto con esa voz en otros idiomas”, apunta el especialista. Esta herramienta ofrece otra opción en la que la persona a la que se quiere clonar la voz debe leer un determinado mensaje antes. De esta manera, se pretende impedir la clonación de voz de terceros sin su consentimiento. Otros servicios también ofrecen esta opción más segura.

Para clonar una voz se necesitan apenas unos minutos de grabación (o incluso segundos, dependiendo del servicio) y el resultado dependerá también de la calidad del audio. “Para lograr la calidad deseada se requiere que la muestra no esté comprimida, y que sea limpia y aislada, es decir, que no haya ningún tipo de sonido de fondo. Por ejemplo, un audio de WhatsApp no tiene la calidad suficiente”, afirma Fernando López Bello, especialista en big data e inteligencia artificial y también maldito. En este sentido, Torrijos aclara que, cuando se clona una voz de manera profesional, se graba a la persona con calidad de estudio

“Sin embargo, para llevar a cabo estafas, a los timadores les vale con cualquier calidad, por ejemplo un audio de TikTok o de YouTube”, asegura la experta. Lo mismo señala Carreras: “La calidad del dato original influye, pero para generar audios sueltos y cortos no tanto. Lo complicado sería que el estafador pudiese hablar con la voz original en tiempo real en una llamada”. 

Para obtener esos audios con los que poder clonarnos la voz, los timadores pueden recurrir a los vídeos que tenemos publicados en internet de forma pública. También podrían hacer uso de otros datos personales que tenemos expuestos para hacer más creíble su engaño

Ponte en contacto con la persona a la que sospechas que han clonado la voz y evita compartir datos personales

Según los expertos consultados, es difícil distinguir una voz clonada en un audio. “En uno corto de 4-5 segundos es muy poco probable que detectes que la voz es clonada”, asegura Torrijos. Y añade: “En cambio, en un audio más largo (30 segundos - 1 minuto) ya puedes detectar pequeñas inflexiones, muy leves, o un tono un poco más robótico en la pronunciación rara de algunos fonemas que pueden darte una pista”. 

Por su parte, Carreras afirma que los timadores podrían editar el audio y añadir ruido de fondo para parecer que está grabado desde la calle y, de este modo, hacer los fallos del audio más irreconocibles. En esta misma línea, López Bello señala que, si la calidad del audio es clara, podremos escuchar ruidos sospechosos o pronunciaciones “forzadas”. No obstante, si el audio es de mala calidad, será más complicado reconocer esos errores: “Es como intentar distinguir a una persona que vemos a mucha distancia de nuestros ojos”. 

En cualquier caso, el INCIBE da una serie de consejos para prevenir timos con voces clonadas:

  • Si recibimos una llamada sospechosa debemos contrastar la información con la persona a la que podrían estar suplantando la identidad.

  • No debemos facilitar datos personales ni bancarios bajo ningún concepto. Tampoco debemos seguir indicaciones que nos den, como pinchar en enlaces o descargar aplicaciones.

  • Podemos acordar una palabra “clave” con nuestros familiares y amigos para corroborar nuestra identidad en estos casos.

Qué puedes hacer si te han timado con una voz clonada

Si lamentablemente te han engañado haciendo uso de una voz clonada, puedes hacer lo siguiente:

  • Avisar a otros contactos de lo ocurrido por si reciben alguna llamada similar.

  • Bloquear el número de teléfono desde el que se recibió el audio o llamada.

  • Informar a la Policía Nacional o a la Guardia Civil sobre el número fraudulento y denunciar en caso de ser víctima de una estafa. 

  • Practicar egosurfing para comprobar si se está haciendo un uso indebido de nuestros datos personales. Si es así, podemos solicitar su eliminación a la plataforma. En caso de negativa, podemos reclamar ante la Agencia Española de Protección de Datos (AEPD). 

En este artículo han colaborado con sus superpoderes Carmen Torrijos, lingüista computacional y responsable de IA en Prodigioso Volcán; y Fernando López Bello, especialista en big data e inteligencia artificial.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Maldito Timo cuenta con el apoyo de: