“Los altavoces inteligentes te escuchan las 24 horas al día”. “Recogen todo lo que decimos, a la espera de la palabra de activación”. Cuando toca hablar de asistentes de voz y altavoces inteligentes surgen dudas sobre hasta qué punto estos dispositivos suponen un peligro para nuestra privacidad y sobre si graban todo lo que decimos, incluyendo nuestras conversaciones privadas.
Aunque estos aparatos incorporan micrófonos capaces de identificar nuestra voz, el Asistente de Google, Alexa y Siri se ponen en marcha cuando reconocen una frase de activación (“Hey, Google”, “Alexa”...) pero no graban ni transmiten nada de lo que decimos hasta ese momento, según sus fabricantes. Sí es cierto que en ocasiones estos altavoces se activan de forma no intencionada al confundir esta frase de activación por otra palabra, lo que puede hacer que grabe conversaciones privadas sin darnos cuenta.
En caso de que uno de estos altavoces se haya activado sin darnos cuenta, podemos consultar qué grabaciones ha hecho y eliminarlas. Además, hay que recordar que si compartimos nuestros audios con los servidores de estas empresas existe el peligro de que los cibercriminales se hagan con esta información, por lo que es importante mantener nuestro dispositivo protegido.
Los altavoces inteligentes no graban las 24 horas del día, sólo se activan después de escuchar una frase específica
Los asistentes de voz como Alexa, el Asistente de Google o Siri funcionan gracias al reconocimiento automático de voz (ASR, por sus siglas en inglés), una tecnología que permite a estos sistemas reconocer palabras y frases e interpretar nuestras peticiones. Para ello traducen nuestra voz a texto, elaboran una respuesta por escrito y la convierten en un audio a través de una voz sintética para contestarnos.
Para iniciar este proceso, los asistentes de voz están diseñados para activarse ante una secuencia de palabras concreta. Son expresiones como “Alexa” si usas el altavoz Echo de Amazon, “Ok, Google” si empleas el Asistente de Google u “Oye, Siri”, si tienes el altavoz HomePod de Apple. Cuando las decimos de forma inteligible, el dispositivo se activa y procesa a continuación nuestra petición.
Según detallan Google, Amazon y Apple, estos dispositivos sólo se ponen en marcha cuando detectan esta frase de activación. Es decir, que aunque tengan micrófonos que pueden captar nuestra voz de forma constante, el dispositivo queda en modo de espera hasta que identifica estas palabras, inciden estas compañías. Hasta entonces no establece ninguna conexión con los servidores ni envía nuestras solicitudes, no comparten lo que decimos las 24 horas del día.
Lo que sí puede ocurrir es que estos dispositivos confundan otros sonidos o palabras con la frase de activación, lo que supondría una activación no intencionada. Es lo que pasa si alguna vez se ha activado tu asistente sin querer mientras hablabas con otra persona o después de haber escuchado una frase de activación en una serie o un anuncio.
Estos sistemas no cuentan con una precisión del 100%: todo depende de las frases que digamos cerca de ellos y en qué condiciones. Si esto nos ocurre, podemos consultar y eliminar las grabaciones que no queremos compartir y también podemos pedirle a nuestro asistente de voz que deje de almacenar nuestras conversaciones.
Existe el peligro de que los cibercriminales se hagan con esta información y puedan suplantar nuestra identidad
Las grabaciones de nuestra voz no se almacenan dentro del dispositivo, sino en los servidores de Amazon, Google y Apple. Aunque estas compañías cuentan con sistemas de seguridad para mantener nuestras grabaciones a salvo, existe el riesgo de que los cibercriminales se hagan con ellas. Según un estudio de la empresa de ciberseguridad Check Point en 2020, los dispositivos Alexa contaban con una debilidad que los cibercriminales podrían haber utilizado para acceder a las grabaciones de este asistente de voz.
No es el único riesgo al que están expuestos estos altavoces. Según el Instituto Nacional de Ciberseguridad (INCIBE), estos dispositivos también se pueden activar a través de mensajes de baja intensidad sonora y ultrasonidos imperceptibles para el oído humano, lo que da acceso a los cibercriminales a estos altavoces inteligentes y les permitiría instalar un virus, lo que en algunos casos abre la posibilidad de que se conviertan en aparatos de escucha.
Si un cibercriminal se hace con nuestros datos personales y con las grabaciones de nuestra voz existe el peligro de que suplante nuestra identidad a través de una voz generada con inteligencia artificial. Esta tecnología permite imitar la forma de hablar de una persona, lo que se conocen como voces clonadas, y hay casos en los que se han utilizado de forma fraudulenta para engañar a sus víctimas.
Si queremos mantener nuestra privacidad, el INCIBE da una serie de consejos para proteger nuestros dispositivos.
Mantén tu altavoz actualizado. Asegúrate de que tu asistente está protegido frente a las amenazas más recientes.
No reveles información personal a estos dispositivos. No compartas datos confidenciales a través de estos asistentes.
Haz que el asistente sólo reconozca tu voz. Algunos asistentes tienen la opción de activarse sólo con el habla de una determinada persona.
Cambia la palabra de activación. Algunos altavoces inteligentes permiten cambiar esta frase por otra personalizada.
Desactiva los micrófonos cuando no uses el altavoz. Así evitarás que se active de forma accidental.
Protege tu dispositivo con contraseñas robustas. Establece también un código para las funciones que pueden tener acceso a tus datos personales.
Elimina las interacciones con el dispositivo y desactiva la opción de compartir estas grabaciones. Algunos dispositivos almacenan nuestros audios de forma predeterminada a no ser que cambiemos su configuración.
Primera fecha de publicación de este artículo: 22/04/2024