La Ley de IA no debe contener exenciones por “seguridad nacional

No es raro que el Consejo de la UE no esté en contacto con la opinión pública. Esto ha sucedido una vez más con la Ley de IA de la UE, al eximir de supervisión y control a los sistemas de IA desarrollados o utilizados con “fines de seguridad nacional”. Esperamos que la Comisión Europea y el Parlamento pongan remedio a esta situación.

La “seguridad nacional” significa cosas diferentes para cada persona, y carece de una definición estricta y consensuada. Por lo tanto, cualquier exención por este concepto es vaga desde el principio y está abierta a los abusos. Depende en gran medida de las clasificaciones de los gobiernos nacionales, que podrían utilizar su definición para etiquetar a sus ciudadanos o grupos de interés (por ejemplo, los manifestantes por el clima) como “extremistas” o “terroristas”.

En el contexto del uso de potentes herramientas de IA, como el reconocimiento facial para la vigilancia, una exención por “seguridad nacional” puede perjudicar nuestros derechos y libertades fundamentales. La vigilancia ya ha provocado un efecto escalofriante en los derechos a la protesta y a la libertad de expresión, además de ser perjudicial para las democracias libres y abiertas.

Los ciudadanos europeos reconocen esta amenaza. En un resultado de 12 países europeos, una muestra representativa de ciudadanos proporcionó opiniones ampliamente unificadas sobre el uso de la IA por parte de las instituciones públicas, especialmente en el contexto de la seguridad nacional.

A más de la mitad de los adultos les preocupa el uso de la IA en el ámbito de la seguridad nacional o la defensa, y una clara mayoría (más del 70%) opinó que los gobiernos deberían respetar siempre los derechos de todos los individuos y grupos en este contexto, es decir, sin exenciones.

Además, casi dos tercios se sentirían preocupados si otro país de la UE al que viajasen tuviese una menor protección de sus derechos y libertades en lo que respecta al uso de la IA por parte de los servicios secretos, un escenario fácilmente imaginable si se incluye esta exención

Parece que los Estados miembros de la UE no están al tanto de lo que significa la seguridad para sus ciudadanos. Según la propuesta de Ley de IA de la UE, cualquier sistema de IA que suponga un alto riesgo para los derechos de las personas (como la IA en el contexto policial y de control de fronteras) tendría que desarrollarse y utilizarse bajo un mayor escrutinio y evaluación.

La propuesta original de la Comisión no incluía exenciones específicas en relación con la IA desarrollada o utilizada con fines de seguridad nacional, dejando que la cuestión se aclarara en el marco de las normas sobre la división de competencias entre la UE y los Estados miembros.

Sin embargo, el Consejo, desde su primera propuesta de compromiso, indicó que los Estados miembros quieren eliminar las normas para su uso de la IA en defensa y seguridad nacional. El Consejo incluso amplió esa exención general en el último texto de compromiso filtrado para incluir no sólo los sistemas de IA desarrollados o utilizados para fines de seguridad nacional en la UE, sino también los sistemas de IA cuyos resultados se utilizan en la Unión para tales fines, independientemente de si los actores son organismos públicos o privados.

El Parlamento, por otro lado, probablemente se ponga del lado de los ciudadanos, preparándose para luchar contra las exenciones, ya que éstas socavan claramente cualquier prohibición y salvaguarda incorporada en la Ley de IA de la UE.

Prohibir la identificación biométrica más intrusiva en los espacios públicos tiene poco sentido si las vagas exenciones reclamadas por los gobiernos nacionales pueden aplicarse en un mosaico de 27 normas legales diferentes en toda la UE. Queda por ver cómo explicarán los diplomáticos de Bruselas estos 27 marcos normativos para los sistemas de IA de seguridad nacional al sector privado, que ya se queja de la fragmentación de las normas. La ampliación también podría tener un impacto importante fuera de la UE, ya que los gobiernos de todo el mundo se fijan en la normativa europea como modelo.

En nuestro último análisis jurídico, ECNL desacreditó la narrativa de la “intocable competencia nacional” de los Estados miembros en materia de seguridad nacional, favorecida por los diplomáticos de Bruselas.

De hecho, las sentencias del TJUE demuestran que no existe un conflicto inherente entre la normativa del mercado interior de la UE y los intereses de seguridad nacional de los Estados miembros. Dado que la Ley de Inteligencia Artificial de la UE será una normativa del mercado interior, no hay justificación para excluir completamente del ámbito de aplicación los sistemas desarrollados con este fin.

La Comisión y el Parlamento deben actuar para impedir que esta exención se convierta en ley.

Read Previous

Por qué la UE no puede contar con Turquía para proteger a los solicitantes de asilo

Read Next

La guerra comercial entre EE.UU. y China podría calentarse