menu MENÚ
MALDITA TECNOLOGÍA

¿Son nuestras emociones datos personales? Qué dice la ley de protección de datos sobre el reconocimiento de emociones y el análisis de sentimientos con IA

Publicado
Actualizado
Claves
  • El reconocimiento de emociones emplea la inteligencia artificial para analizar nuestras expresiones corporales y relacionarlas con un sentimiento
  • Esta información no está considerada como un dato personal, pero se obtiene a partir de nuestros datos biométricos, que sí están protegidos por la ley
  • Los datos sobre nuestras emociones puede revelar otro tipo de información sensible como nuestra ideología o nuestra salud
Comparte
Etiquetas

El reconocimiento de emociones emplea la inteligencia artificial para obtener información sobre nuestros sentimientos a partir de nuestras expresiones corporales. Estos sistemas se pueden aplicar en ámbitos como la salud o el marketing, aunque hay dudas éticas sobre su uso. Pero, ¿puede otra persona recoger información sobre mis emociones sin mi permiso? ¿Se pueden averiguar otros datos personales a partir de mis expresiones?

Aunque nuestros sentimientos no están considerados como un dato personal, para poder realizar un reconocimiento de emociones hay que recoger información sobre nuestras expresiones faciales que sí que está protegida por la ley al considerarse como un dato biométrico: información sobre nuestro físico que no podemos cambiar. Por este motivo nadie nos puede hacer un reconocimiento de emociones sin nuestro permiso. Esta información, si se cruza con otro tipo de datos, también puede revelar información sensible como nuestra ideología o nuestra salud mental.

Nuestros sentimientos no están protegidos explícitamente por la ley, pero sí nuestros datos biométricos

Los sistemas de reconocimiento de emociones permiten estudiar los sentimientos de una persona a partir de sus expresiones corporales. El desarrollo de la inteligencia artificial permite usar esta tecnología para analizar nuestros gestos faciales, nuestros movimientos corporales y el tono de nuestra voz y determinar si estamos tristes, enfadados o alegres. Una información que puede ser útil en ámbitos como la medicina o la seguridad vial.

Según el Reglamento General de Protección de Datos (RGPD), la ley que regula el tratamiento de nuestros datos personales, queda prohibida la recogida de cierta información personal como nuestro estado de salud o nuestra ideología sin nuestro consentimiento explícito. Entre esta información se encuentran nuestros datos biométricos: rasgos de nuestro físico y comportamiento que nos identifican de forma inequívoca. 

Inés Cano, asociada en Nuevas Tecnologías en Aledra Legal, especializada en IA y maldita que nos ha prestado sus superpoderes, detalla que las emociones “estrictamente” no forman parte de nuestros datos biométricos, aunque sí que hace falta recoger otra información sobre nuestro físico para poder usar estos sistemas de reconocimiento de sentimientos. “Cuando el reglamento fue redactado no se tenía en mente que las emociones llegarían a ser monitorizadas, por lo que tiene sentido que ahora experimentemos cierta dificultad para encajar el supuesto en la norma”, argumenta la abogada.

Aunque los sentimientos no estén protegidos directamente por la ley, para poder realizar un reconocimiento de emociones es necesario recoger información sobre nuestras expresiones y rasgos faciales, que sí que están considerados como datos biométricos y bajo el amparo del RGPD. Cano incide en que “lo que permite la identificación de una persona no es la emoción que experimenta, sino su cuerpo”. Así que al proteger “directamente” nuestros rasgos físicos la ley también protege “indirectamente” nuestras emociones.

En resumen, no nos pueden hacer un reconocimiento de emociones sin nuestro permiso porque nuestros rasgos faciales están considerados como datos biométricos y están protegidos por la ley. Lo que significa que, indirectamente, otras personas tampoco pueden recoger información sobre nuestros sentimientos sin nuestro consentimiento a través de estos sistemas. Aquí puedes encontrar más información sobre cómo funcionan los sistemas de reconocimiento de emociones.

Las emociones también se pueden utilizar para obtener otro tipo de información sensible sobre nosotros

Aunque la información sobre nuestras emociones no están consideradas como un dato biométrico, sí que se podría emplear para recoger otra información sensible sobre nuestro comportamiento, nuestras opiniones políticas o nuestra salud si se cruza con otro tipo de información, tal y como detalla el Comité Europeo de Protección de Datos. Por ejemplo, si durante un mitin político se realizara un reconocimiento de emociones, se podría analizar las expresiones de los asistentes para ver si están de acuerdo o en contra de un determinado discurso, lo que puede arrojar información sobre su ideología, un dato especialmente protegido por el RGPD.

La falta de emociones ante ciertas situaciones también pueden ser síntoma de una condición médica y revelar información personal sobre nuestra salud, como la alexitimia, una condición por la que una persona no es capaz de identificar sus emociones y que puede ser un factor de riesgo para trastornos mentales como la depresión. También puede usarse para detectar cómo alguien reacciona ante ciertas situaciones, como puede ser una fobia a las arañas, si esta información se cruza con nuestros movimientos corporales, una información que pueden recoger dispositivos como unas gafas de realidad virtual.

Víctor Rabadan, arquitecto en confiabilidad del sitio (SRE) y maldito que nos ha prestado sus superpoderes incide en que un examen facial es capaz de recabar una emoción suelta, pero si se combina con otro tipo de información (como preguntas de carácter psicológico) se puede obtener información sensible y realizar un perfil emocional de una persona. Cano detalla que para realizar un perfil psicológico más exacto habría que “hacer una observación prolongada en diferentes situaciones”. “Las empresas a las que concedemos acceso indiscriminado a otros datos de nuestra vida son las que tienen más poder para enriquecer esa observación o para beneficiarse de ella”, argumenta la experta.

En este artículo han colaborado con sus superpoderes la maldita Inés Cano, asociada en Nuevas Tecnologías en Aledra Legal, y Victor Rabadan, arquitecto en confiabilidad del sitio (SRE).

Inés Cano forma parte de Superpoderosas, un proyecto de Maldita.es en colaboración con FECYT que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de WhatsApp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.


Primera fecha de publicación de este artículo: 09/04/2024

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.