sábado, abril 13

La UE aprueba la primera ley de inteligencia artificial del mundo | Tecnología

La Unión Europea será la primera región del mundo en regular de forma completa los usos de la inteligencia artificial (IA). Los Estados y el Parlamento Europeo han llegado, en la medianoche del viernes al sábado, y después de tres días de intensas y duras negociaciones, a un acuerdo provisional, un texto final que todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026. Este texto define las obligaciones y normas por las que deberá regirse una tecnología que está aquí para quedarse y que está transformando completamente la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de ellos ni siquiera aún imaginables. “El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”, ha asegurado en X (antes Twitter) la Presidencia española del Consejo de la UE. Cerrar esta ley era una de las prioridades fijadas por la presidencia europea española, que acaba este mes de diciembre.

Los Veintisiete aseguran que quieren garantizar las posibilidades y limitar al máximo los riesgos, para lo que han negociado una ley “a prueba del futuro” que contenga la flexibilidad suficiente como para poder regular funciones o tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que experimenten las ya existentes. Pero el diablo, como siempre, está en los detalles, y las negociaciones “apasionadas”, como las calificaron testigos de los interminables tira y afloja que comenzaron el miércoles y acabaron rozando la medianoche del viernes al sábado, se alargaron debido al pulso entre Estados y eurodiputados —y a veces entre cada parte entre sí— sobre qué es un riesgo o no y qué excepciones y salvaguardias poner para garantizar que los derechos fundamentales individuales no se arriesgan en aras de no perjudicar la economía o los intereses de los Estados. La letra pequeña está aún por conocerse, pero, tras 36 horas de negociaciones, una de las más largas que se recuerdan de estos formatos, todas las partes se declararon satisfechas por el “equilibrio” logrado entre los dos objetivos.

“Es una ley muy buena que impulsará la innovación y de forma compatible con los derechos fundamentales”, ha subrayado al respecto la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas.

“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, ha señalado mientras tanto el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es “mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”. Sobre todo, ha acotado Artigas, porque da una “certeza legal y técnica” a los ciudadanos y las empresas que ahorrará previsiblemente muchas acciones legales. La presidenta de la Comisión, Ursula von der Leyen, ha celebrado una normativa “pionera en el mundo”. Un marco legal “único para el desarrollo de una IA en el que se puede confiar”, ha saludado en X la jefa del Ejecutivo europeo. “Europa ha liderado y ha cumplido”, ha acotado la presidenta del Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la conoce en inglés, es una legislación “vanguardista y responsable que imponte estándares globales”.

Junto a la satisfacción por cerrar un acuerdo que muchas veces parecía escaparse, había también gestos de alivio entre los principales responsables de las negociaciones, y no solo porque por fin podían irse a casa, sino porque, subrayaron todos, lo hacían seguros de que han hecho bien unos deberes con muchas trabas.

Entre ellos, los más espinosos fueron, como se preveía, la cuestión de cómo regular los modelos de IA de propósito general (la IA generativa o modelos fundacionales) en los que se basan populares herramientas como el ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final acabó siendo el punto más arduamente negociado y prolongó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente —y en algunos casos ya realmente, como se ve en algunos países con poco músculo democrático— permiten una supervisión y control estatal que puede colisionar directamente con los derechos fundamentales de los ciudadanos.

Finalmente, se ha evitado el fracaso de las negociaciones. De hecho, la cuestión de los modelos fundacionales se resolvió en horas de la madrugada del miércoles al jueves y lo que prolongó las discusiones fue la otra línea roja para los parlamentarios: usos prácticos de la IA en vigilancia mediante sistemas biométricos como el reconocimiento facial.

El Parlamento Europeo ha celebrado que la ley “busca garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental están protegidos de IA de alto riesgo, a la par que se impulsa la innovación y se hace de Europa un líder en el sector”.

El texto final recoge, aseguran los eurodiputados, algunas de sus principales líneas rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia biométrica que consideraban inaplicables en cualquier caso: los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza); los sistemas par expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión; el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas; el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales); sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).

Por otro lado, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias: se requerirá una autorización judicial y la lista de crímenes que lo autoricen será muy restrictiva. En el caso del uso “ex post”, solo se permitirá para la búsqueda de una persona condenada o sospechosa de haber cometido un crimen grave. En el caso de la vigilancia en tiempo real, su uso estará limitado en “tiempo y locación” y solo se permitirá para la búsqueda de víctimas de secuestro, trafico humano o explotación sexual, para la prevención de una amenaza terrorista genuina y previsible o genuina y que se está produciendo ya, o para la localización o identificación de un sospechoso de crímenes específicos: terrorismo, tráfico, asesinato, secuestro, violación, robo armado o un crimen medioambiental, entre otros).

Ningún otro país tiene aún una regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”. Días después, el primer ministro británico, Rishi Sunak, convocó a una cumbre de la que surgió el primer compromiso de 28 países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.