MENÚ
MALDITA TECNOLOGÍA

La excepción de seguridad nacional de la Ley europea de Inteligencia Artificial: a qué sistemas de IA aplica y qué consecuencias puede tener

Publicado
Claves
  • Las obligaciones de la ley de IA de la Unión Europea no aplican a los sistemas de IA que se utilicen exclusivamente con fines militares, de defensa o seguridad nacional desarrollados o utilizados por entidades públicas o privadas 
  • La excepción se justifica en la “responsabilidad exclusiva” de los Estados miembros sobre su seguridad nacional
  • Organizaciones han mostrado preocupación por la “laguna jurídica” que puede introducir una excepción tan amplia y afirman que la invocación de la seguridad nacional debe ser evaluada caso a caso
  • Expertos detallan a Maldita.es que el desarrollo y uso de estos sistemas igualmente tendrá que cumplir con las normativas de seguridad y defensa de la UE, y las leyes de seguridad nacional de cada país
Comparte
Categorías
Recursos utilizados
Superpoderes
Fuentes oficiales (comunicados, bases de datos, BOE)

La Ley de Inteligencia Artificial o AI Act de la Unión Europea es el primer marco jurídico integral sobre IA que se aprueba en todo el mundo y busca regular los sistemas de inteligencia artificial que operen en la Unión Europea, pero hay una excepción en la que no aplica ninguna de las obligaciones que dicta. Es la seguridad nacional, que exime de ellas a los sistemas de IA que se utilicen exclusivamente con fines militares, de defensa o seguridad nacional, independiente de si se desarrollan o usan por entidades públicas o privadas.

Esto puede ser ambiguo y generar dudas a la hora de su aplicación. Organizaciones como la red EDRi han manifestado su preocupación por la “laguna jurídica” que introduce esta excepción. Los expertos consultados por Maldita.es afirman que existe para respetar la soberanía de los Estados miembros, pero que no es una carta blanca y su uso debe cumplir con la normativa que regula la Política común de seguridad y defensa de la UE y con la propia normativa de seguridad nacional de cada país. 

Las obligaciones de la AI Act no aplican a los sistemas de IA que se utilicen exclusivamente con fines militares, de defensa o seguridad nacional 

Como recoge la Ley de IA, la excepción de seguridad nacional significa que el reglamento no aplicará a los sistemas de IA que “se utilicen exclusivamente con fines militares, de defensa o de seguridad nacional, independiente del tipo de entidad que lleve a cabo estas actividades” (artículo 2.3). 

Miguel Vieito, jurista, investigador en Derecho y maldito que nos ha prestado sus superpoderes, explica que la excepción se justifica en que “los Estados conservan ‘responsabilidad exclusiva’ en lo que respecta a la seguridad nacional”. Sin embargo, el experto matiza que dependerá de “lo que cada Estado entienda como seguridad nacional, bien en su gestión directa o a través de organismos supranacionales como la OTAN [Organización del Tratado del Atlántico Norte]”. 

Organizaciones advierten de que la excepción genera una laguna jurídica importante y que la invocación de la seguridad nacional debe evaluarse caso a caso

La red EDRi de investigadores, académicos, ONGs y activistas advierte de que la excepción “introduce una laguna jurídica importante que eximirá automáticamente del escrutinio a ciertos sistemas de IA y limitará la aplicabilidad de las salvaguardias de derechos humanos previstas en la Ley de IA”. Para explicar las posibles consecuencias, ponen el siguiente ejemplo: un gobierno podría invocar la seguridad nacional para introducir sistemas biométricos de vigilancia masiva, sin tener que cumplir con las exigencias y prohibiciones del reglamento que explicamos aquí

Otras leyes europeas como la Ley de Servicios Digitales (DSA) o la Ley de Mercados Digitales (DMA) no incluyen excepciones en materia de defensa o seguridad nacional, explica Vieito. Sin embargo, la Ley de IA no es el único reglamento que incluye está excepción, aunque sí lo hace de manera más amplia. Por ejemplo, el artículo 25.1.a del Reglamento General de Protección de Datos (RGPD) la considera, pero se reduce a artículos concretos y previsiones específicas. El abogado añade que en el caso del RGPD “no se trata de un gran vacío regulatorio, sino de pequeñas excepciones a la norma general”.

Para los miembros EDRi una excepción tan amplia “no está justificada por los tratados de la UE” y recalcan que si bien, la seguridad nacional “puede ser un motivo justificado para las excepciones a la Ley de IA, esto debe evaluarse caso a caso, de conformidad con la Carta de Derechos Fundamentales de la UE”. 

Los sistemas eximidos sí deben cumplir con la Política común de seguridad y defensa de la UE y la normativa de seguridad nacional de cada país

Aunque “en la práctica la excepción de seguridad nacional puede dar margen a los Estados para evitar la aplicación de la Ley de IA e implementar medidas que engrosen su soberanía y se separen de lo previsto por la UE”, esto no significa que tengan vía libre para hacerlo, explica Inés Cano, abogada especializada en nuevas tecnologías y maldita que nos ha prestado sus superpoderes. Si un Estado miembro hace uso de la exención, el sistema de IA “deberá cumplir con la normativa que regula la Política común de seguridad y defensa de la UE y/o la normativa de seguridad nacional”, detalla la experta.

Por lo mismo, la abogada aclara que esto no se traduce en que los Estados tengan carta blanca para hacer lo que les parezca, sino que deben cumplir con lo descrito en sus propias leyes de seguridad nacional (en el caso de España, la ley 36/2015). “En ningún caso podrá implicar la suspensión de los derechos fundamentales y libertades públicas de los ciudadanos”, solamente en estados de alarma, excepción y sitio, “que sólo ocurrirán sí circunstancias extraordinarias hiciesen imposible el mantenimiento de la normalidad”, sentencia. 

Además, Cano aclara que el considerando 24 de la ley (donde se explica cómo se debe interpretar) obliga a los sistemas de IA a cumplir con el reglamento si su fin cambia de seguridad nacional a otra finalidad. Es decir, si un sistema de biometría diseñado para localizar terroristas se utiliza para buscar personas desaparecidas, deberá cumplir con las exigencias de la ley. “Esta aclaración intenta cubrir esa zona gris entre los intereses comunes de la UE y la soberanía de los Estados”, argumenta la experta. Para Vieito, es importante tener presente que “el reglamento acaba de aparecer y será preciso tiempo y costumbre para adaptarnos a cómo funcionará”. 

En este artículo han colaborado con sus superpoderes la maldita Inés Cano, abogada especializada en nuevas tecnologías, y el maldito Miguel Vieito, jurista e investigador en Derecho.

Inés Cano forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.