Desde el 2 de febrero de 2025, una serie de sistemas de IA están prohibidos en la Unión Europea debido a la Ley de IA o AI Act por considerarse de “riesgo inaceptable”. Estos sistemas, como los de identificación biométrica remota en espacios públicos o los que infieren emociones en lugares de trabajo o estudios, se han prohibido para salvaguardar los derechos fundamentales y la seguridad de las personas. ¿Cómo afecta a los usuarios?
Según los expertos consultados por Maldita.es, los usuarios podrían afrontar sanciones en ciertas circunstancias, por ejemplo, si son conscientes de que emplean una IA prohibida. Pero añaden que la responsabilidad principal de cumplir con estas obligaciones recae en desarrolladores, proveedores y distribuidores. También las empresas que utilizan sistemas de IA deben haberlos evaluado antes de la fecha límite y haber tomado medidas para cumplir con la ley.
Si detectamos el uso de una IA prohibida, podemos denunciarlo ante la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), encargada de supervisar e inspeccionar la aplicación de la normativa en España. Así lo explicó a Maldita.es la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) que señaló que este proceso se puede realizar a través de un formulario en su web, que a 3 de febrero no está disponible pero cuya publicación, dicen, “es inminente”. También se puede tramitar mediante un escrito al director general de la AESIA.
A pesar de que la responsabilidad principal no recae en los usuarios, en ciertas circunstancias se podrían enfrentar a sanciones, según los expertos consultados por Maldita.es
La Ley de IA o AI Act prohíbe una serie de sistemas de IA por el peligro que suponen para los derechos fundamentales y la seguridad de las personas. Por ejemplo, algunos de los sistemas de IA prohibidos son los de identificación biométrica para uso en espacios públicos, los que categorizan a personas según sus datos biométricos, los que infieren emociones en lugares de trabajo o estudios y los que usan técnicas manipuladoras o subliminales.
Ya sea en nuestro lugar de trabajo o navegando por internet en nuestro tiempo libre, ¿qué pasa si usamos un sistema prohibido? Los expertos señalan que se nos podrían atribuir responsabilidades como usuarios finales, pero con ciertos límites.
Ibán García, director internacional de Lasker, exeurodiputado y miembro del equipo negociador para la aprobación de la Ley de IA, indica que esta regulación “busca abarcar toda la cadena de valor, aunque también menciona el principio de proporcionalidad a la hora de determinar sanciones”. Por ejemplo, las sanciones descritas en el texto se dirigen a los “operadores”, los cuales la ley define como “un proveedor, fabricante del producto, responsable del despliegue, representante autorizado, importador o distribuidor”.
“La responsabilidad principal recae sobre los desarrolladores, proveedores y distribuidores de los sistemas de IA, más que en los usuarios finales”, afirma el experto. Sin embargo, sostiene que los usuarios podrían ser sancionados bajo ciertas circunstancias, pero que no habrá claridad total sobre el tema hasta que se apruebe la Directiva de responsabilidad por IA, que adaptará las normas de responsabilidad civil a la inteligencia artificial.
“Los usuarios individuales o empresas que utilicen un sistema prohibido podrían enfrentarse a sanciones si conscientemente emplean un sistema de IA que saben está prohibido o que no cumple con las regulaciones”, señala García. “Sin embargo, los usuarios finales que no cuentan con conocimientos técnicos o que no son responsables directos de la comercialización del sistema suelen tener una responsabilidad limitada”.
Elena Gil, doctora en Derecho Digital y Protección de Datos, cofundadora de TechandLaw y maldita que nos ha prestado sus superpoderes, señala que “si no eres el usuario final y estás integrando o desarrollando un sistema prohibido, podrían derivarse responsabilidades”. Por ejemplo, las empresas que han integrado y utilizan sistemas prohibidos, “antes del 2 de febrero, deben haber evaluado si alguno de sus sistemas entra en las categorías prohibidas por el reglamento. Si es el caso, tendrán que tomar medidas, como realizar ajustes técnicos para cumplir con la normativa o, si no es posible, retirar el sistema del mercado”.
Sobre si hay alguna forma de saber que estamos usando una IA prohibida, Gil explica que “la herramienta en sí no te notificará de que lo es”. Eduard Blasi, abogado experto en derecho digital, cofundador de TechandLaw y maldito recalca la importancia de que las empresas hayan analizado sus sistemas, ya que advierte de que no van a recibir ningún aviso específico sobre las prohibiciones.
Podemos denunciar el uso de una IA prohibida a la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
Otra manera en la que nos pueden afectar estas prohibiciones es si se utiliza alguna IA prohibida sobre nosotros. “Por ejemplo, podrías ser manipulado o engañado sin darte cuenta, o ser sometido a prácticas invasivas como el reconocimiento facial en tiempo real en espacios públicos”, advierte Blasi. “Los usuarios podrían enfrentarse a las consecuencias graves que llevaron a prohibir estos sistemas en primer lugar”, sostiene.
Si nos pasa y vivimos en España, el experto recomienda denunciarlo a la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), el organismo responsable de supervisar el cumplimiento de la ley en España, que está ubicado en A Coruña. “Esta agencia tiene la autoridad para investigar, inspeccionar y sancionar a los responsables”, señala el experto.
Desde la Secretaría de Estado de Digitalización e Inteligencia Artificial explican a Maldita.es que la AESIA “ya está operativa” y que para denunciar un sistema prohibido podemos:
Rellenar el formulario que se habilitará en la página oficial de la AESIA, cuya publicación indican “es inminente”.
Enviar un escrito dirigido a su director general, Ignasi Velda, presentado a través de cualquier registro de la administración. En este enlace tienes más información sobre el proceso.
Con esta información, la Agencia valorará la denuncia “para determinar si inicia una actuación de oficio o si se remite a la autoridad competente por la materia”, afirman. Sin embargo, la SEDIA aclara que el régimen sancionador del reglamento no será de aplicación hasta el 2 de agosto de 2025. Por lo tanto, hasta esa fecha no será posible tramitar ningún procedimiento sancionador contra los sistemas de IA prohibidos (pero sí, denunciar).
La SEDIA dice que todas las denuncias presentadas antes del 2 de agosto serán examinadas y “se recabará, de ser necesario, información”. Después de esto, si se considera que es un sistema de IA prohibido, hay dos opciones:
Si está sometido a una legislación armonizada (normas europeas para probar que productos o servicios cumplen con requisitos técnicos) se comunicará a la autoridad de vigilancia del mercado competente para que supervise su actividad y ejerza las competencias que le correspondan.
Si no está sometido a una legislación armonizada, se comunicará al desarrollador, proveedor o distribuidor responsable del despliegue que está incumpliendo la norma comunitaria con su sistema de IA.
En este artículo tienes más información sobre los sistemas prohibidos y las consecuencias para los operadores si incumplen con la ley.
En este artículo han colaborado con sus superpoderes la maldita Elena Gil, abogada especializada en privacidad, y Eduard Blasi, abogado experto en derecho digital.
Elena Gil forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.