El Parlamento Europeo pide la prohibición del uso policial de la inteligencia artificial transformación digital | Tecnología

El uso policial de herramientas respaldadas por inteligencia artificial (IA), especialmente el reconocimiento facial o los algoritmos predictivos, puede generar una gran disparidad entre los ciudadanos. Hay que tener especial cuidado con estas técnicas, que deben estar sujetas a estrictas normativas y en definitiva siempre a la supervisión humana. Así se recoge en una resolución aprobada ayer por el Parlamento Europeo, que también pide una «prohibición permanente del reconocimiento automático de personas en lugares públicos», dejando claro que los ciudadanos solo deben ser monitoreados si son sospechosos de haber cometido un delito. ofensa.

El Parlamento Europeo también solicita que no se utilicen bases de datos privadas de reconocimiento facial, y cita a Clearview AI como ejemplo, una empresa estadounidense que ha utilizado 10 mil millones de fotografías para identificar personas. También exige transparencia en el desarrollo de cualquier algoritmo que pueda interferir con la privacidad de los ciudadanos y por eso se prefiere el código abierto.

La propuesta, aprobada con 377 votos a favor, 248 en contra y 62 votos en contra, no es vinculante, pero sí significativa de cara a la Ley de Inteligencia Artificial de la UE, el reglamento europeo sobre inteligencia artificial que se está cocinando actualmente en Bruselas. da un ejemplo. Establecer usos permitidos de la IA con un enfoque centrado en el riesgo. «Nos oponemos categóricamente al uso de inteligencia artificial y herramientas de predicción policial basadas en cualquier procesamiento de datos biométricos, lo que resulta en una vigilancia masiva. Esta es una tremenda victoria para todos los ciudadanos europeos. Lo es», dijo el eurodiputado búlgaro Petar Vitanov después de la votación.

El proyecto de Reglamento europeo sobre IA, presentado en primavera, ya identificaba el reconocimiento facial y el uso de datos biométricos como tecnologías particularmente peligrosas. La resolución del Parlamento Europeo proporciona aún más razones para que estas tecnologías estén sujetas a una regulación particularmente estricta.

«Hemos trabajado durante meses con varios eurodiputados para tomar una decisión al respecto en el Parlamento Europeo», dice Ella Jakuboska, coordinadora del Programa de Biometría Facial de la ONG EDRI con sede en Bruselas. era digital.

Describe los problemas que plantean los sesgos algorítmicos en la resolución MEP. Así, advierten que los sistemas de identificación basados ​​en IA identifican erróneamente a grupos étnicos minoritarios, personas LGBTI, ancianos y mujeres en mayor proporción que el resto. Esto es «particularmente preocupante» cuando se trata de la aplicación de la ley o los controles fronterizos, donde estas técnicas se utilizan con mayor frecuencia.

tecnologías controvertidas

Aplicado durante años en el trabajo policial en países como Estados Unidos, el reconocimiento facial ha sido fuertemente cuestionado en los últimos tiempos. Las protestas por la muerte de George Floyd a manos de un agente en Minneapolis el 25 de mayo por asfixia han dado lugar a que muchas ciudades prohiban o prohíban su uso, y que grandes empresas como Amazon, IBM o Microsoft soliciten a la policía que utilice esos formularios. La venta del sistema está suspendido. El movimiento Black Lives Matters de 2020 marca un punto de inflexión en el cuestionamiento de la tecnología, que a menudo se perjudica contra la población negra.

Se ha registrado en la Cámara de Representantes una iniciativa para regular estos sistemas a nivel federal, aunque esto aún no se ha traducido en una forma concreta. La batalla legal iniciada por Robert Williams en Detroit, el primer caso conocido de detención irregular en el país por uso defectuoso de algoritmos de reconocimiento facial, podría llevar a su expulsión por los tribunales.

Mientras tanto, los algoritmos de predicción policial están ampliamente establecidos en los Estados Unidos y China. En Europa también están presentes en países como Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos críticos del crimen a través del análisis de datos automatizado para desplegar patrullas policiales de manera más eficiente.

Estas herramientas tampoco están exentas de controversia. Uno de los efectos distorsionadores de estos sistemas, como lo demuestra ampliamente la literatura científica, es que tienden a criminalizar los vecindarios menos ricos, lo que en el caso de Estados Unidos se traduce en áreas con población mayoritariamente negra o latina. IS: Mientras que los algoritmos alimentan datos sobre cómo se realizan los arrestos, por lo general exigen más vigilancia en las áreas donde se llevan a cabo tales acciones, lo que a su vez conduce a aún más arrestos. Los esfuerzos para corregir este sesgo no han dado hasta ahora resultados satisfactorios.

PUEDES SEGUIR EL PAÍS TECNOLOGÍA: Facebook Y Gorjeo o regístrate aquí para recibir nuestro periodico semanal.

Inicia sesión para continuar leyendo

Solo tener una cuenta te permite leer este artículo, es gratis

EL PAÍS. gracias por leer

Deja un comentario