El Parlamento Europeo vota una ley «histórica» ​​sobre inteligencia artificial sin resolver dilemas clave tecnología

Este miércoles el Parlamento Europeo votará el Reglamento Europeo sobre Inteligencia Artificial (IA), que fue acordado por la Comisión, el Consejo y el Parlamento Europeo el 8 de diciembre tras una maratoniana sesión de negociación de 38 horas, la sesión más larga del Parlamento Europeo. . De la Unión Europea. El borrador final de las normas, que no se ha revelado hasta esta semana, confirma lo que ya se pudo comprobar en diciembre, cuando se cerró el acuerdo provisional, que aún necesita la ratificación final de los Estados miembros antes de que entre en vigor. : El reglamento describe lo que se puede y lo que no se puede hacer, pero no especifica cómo se deben resolver cuestiones clave como la protección de los derechos de autor.

La norma se considera la primera regulación de IA que protege los derechos y libertades básicos (China lanzó su propia ley el verano pasado). En el último debate antes de la votación, el Comisario de Mercado Interior, Thierry Breton, encargado de hacer cumplir las normas, las defendió el martes en Estrasburgo, diciendo: «La primera regulación de la IA en el mundo es equilibrada y tiene como objetivo proteger contra los excesos del abuso de la IA. Pero también promoviendo la innovación”. Al solicitar el apoyo mayoritario del Parlamento Europeo, Breton subrayó que estas normas representan un «compromiso histórico probado en el tiempo».

El reglamento establece diferentes requisitos y obligaciones para las aplicaciones de IA en función de los riesgos que plantea su uso. Los más inofensivos, como los filtros de spam o los detectores de texto duplicado, se pueden utilizar sin restricciones. Se denominan sistemas de riesgo limitado y el único requisito que se les impone a los proveedores es que informen a los usuarios que están utilizando herramientas de IA.

Gran parte de la negociación implicó determinar cuáles planteaban riesgos inaceptables y, por tanto, estaban prohibidos por completo; Y los que son de alto riesgo, lo que implica observación permanente. La primera categoría incluye sistemas que están «más allá de la conciencia de una persona o utilizan técnicas de manipulación deliberadas», que se aprovechan de sus vulnerabilidades o que anticipan las emociones, la raza o las opiniones políticas de las personas.

Entre los rubros de alto riesgo se encuentran los sistemas de identificación biométrica remota, que un gran sector del Parlamento quería prohibir estrictamente, los sistemas de clasificación biométrica o el reconocimiento de emociones. También los sistemas que afectan a la seguridad de infraestructuras críticas y los relacionados con la educación (evaluación del comportamiento, sistemas de admisión y exámenes), el empleo (selección de personal) y la prestación de servicios públicos esenciales, la aplicación de la ley o la gestión de la migración.

El documento de 460 páginas no contiene sorpresas relevantes, aunque sí confirma que sigue sin resolverse una falta de definición relacionada con algunas de las cuestiones más delicadas de las normas. “Esta es una regulación breve. Como instrumento jurídico, necesita mayor aclaración. Hay definiciones muy vagas, algunas de ellas concomitantes con otras normas”, afirma Lorena Jaume-Palaasi, experta en ética y filosofía del derecho aplicada a la tecnología y asesora del Parlamento Europeo en temas relacionados con la IA. “Parece que, al igual que ocurre con el Reglamento General de Protección de Datos (GDPR), necesitaremos jurisprudencia para saber el método mediante el cual se implementará todo esto”.

Identificación biométrica: en casos excepcionales

Uno de los temas más controvertidos y que ocupó la mayor parte de las horas de conversación es la regulación de los llamados sistemas de identificación biométrica remota en tiempo real. En esta categoría se incluiría, por ejemplo, la extensa red de cámaras de reconocimiento facial repartidas por las grandes ciudades chinas que permite localizar a cualquier persona en cuestión de minutos. Los primeros borradores de normativa europea sobre IA eran muy restrictivos con esta tecnología.

Sin embargo, en la última edición del documento se han establecido una serie de supuestos en los que siempre podrán utilizarse bajo autoridad judicial: “Búsqueda de determinadas víctimas de delitos, incluidas personas desaparecidas; ciertas amenazas a la vida o seguridad física de personas físicas o amenazas de ataque terrorista; y la ubicación o identidad de los perpetradores o sospechosos [una lista de 32] Delito.»

El texto final también incluye una excepción en materia de excepciones: «En casos inmediatamente justificados, dichos sistemas podrán ponerse en funcionamiento sin registro en la base de datos de la UE, siempre que dicho registro se lleve a cabo sin demoras indebidas». Inadecuado. […] Los Estados miembros informarán a la Comisión en un plazo de treinta días a partir de la adopción de las presentes normas. Es decir, los funcionarios pueden tomar medidas que eludan las reglas, incluso si luego se declara que el uso del sistema es inapropiado.

“Cuantas más excepciones haya a la prohibición, menos estricta será. Lo que estamos viendo es que se están naturalizando tecnologías que deberían ser cuestionadas”, afirma Jaime-Palassi.

Sin embargo, durante el último debate en el Parlamento Europeo, los principales responsables de negociar las normas defendieron la regulación de la IA como una herramienta que permite a los ciudadanos utilizar estas nuevas tecnologías sin temor a violaciones de sus derechos fundamentales.

Copyright: protección, pero no especificada

Otro tema regulatorio que ha atraído la mayor atención es cómo se protegen los derechos de autor inherentes en la UE a través de 13 directivas y dos regulaciones. En EE.UU. se han presentado una serie de demandas colectivas contra grandes plataformas por utilizar creaciones individuales sin permiso para entrenar modelos de IA; El resultado de estos procesos podría marcar el futuro de la IA generativa (que genera texto, imágenes, vídeos o música a partir de instrucciones dadas por el usuario).

El Reglamento europeo de IA reitera a lo largo de su articulado que todos los sistemas deben garantizar el cumplimiento de los derechos de autor, pero no explica cómo, más allá de que será responsabilidad de la Oficina de IA, organismo que vigilará el cumplimiento de las normas. , Según Breton, esta oficina comenzará a funcionar tan pronto como el reglamento entre en vigor y tendrá «el talento necesario para apoyar la implementación de la ley y servir como un centro de experiencia global en IA».

En cuanto a los derechos de autor de los contenidos utilizados para entrenar algoritmos que ya están en funcionamiento, “la regulación va a ser bastante garantista y proporcionará una protección jurídica considerable a los ciudadanos. Más que un marco legal, es una declaración de principios y valores democráticos”, subraya Ibán García del Blanco, eurodiputado socialista y negociador de la ley de IA. »En algunos casos, la Comisión tendrá que desarrollar más de 20 leyes derivadas de ellas para concretar estas disposiciones. Por ejemplo, en materia de derechos de autor: esta norma creará una serie de propuestas para que las empresas sepan en qué sentido tienen que hacer esas declaraciones de transparencia sobre los contenidos utilizados en la formación de modelos”, explica.

García del Blanco dice que esto no impide que en el futuro haya una serie de exigencias y criterios que se establecerán a través de la jurisprudencia. Esto es lo que ha ocurrido con el reglamento de protección de datos, recuerda Jaume-Palassi: «Cinco años después de su entrada en vigor, ahora están saliendo las primeras decisiones».

puedes seguir tecnología del país En Facebook Y X O regístrate aquí para recibir nuestra periodico semanal,