Connect with us

Tecnología

28 países, entre ellos EE UU y China, se comprometen a una mayor cooperación para afrontar los riesgos de la inteligencia artificial | Tecnología

Published

on

Es complicado regular aquello que se desconoce. Resulta mucho más fácil, sin embargo, ponerse de acuerdo en los miedos compartidos. Miedos ante los riesgos de una tecnología con la capacidad revolucionaria como lo que alberga la inteligencia artificial (IA). 28 países han firmado este miércoles la Declaración de Bletchley, por la que se comprometen a reforzar la coordinación internacional entre todos aquellas investigaciones científicas que hoy analizan los riesgos para la seguridad que encierra la IA. “Para que la mejor ciencia disponible contribuya al diseño de políticas públicas y al bien común”, dice el texto.

El tono de la declaración puede despertar un comprensible escepticismo, porque acumula buenas palabras y propósitos pero pocos compromisos concretos. Pero el hecho de que hayan puesto su rúbrica potencias como Estados Unidos, China o la Unión Europea, sugiere la voluntad de buscar esa respuesta conjunta ante un desafío histórico. La Casa Blanca ha enviado a la Cumbre de Seguridad en Inteligencia Artificial, organizada por el Gobierno británico, a la vicepresidenta Kamala Harris, que ha impulsado personalmente la agenda estadounidense sobre la IA. China, que lidera el número de patentes y proyectos en torno a la IA, ha sido invitada expresamente por Downing Street, y ha estado representada por el viceministro de Ciencia y Tecnología, Wu Zhaohui.

Bletchley Park, una sede muy especial

El Gobierno británico ha elegido un lugar emblemático para la cumbre: Bletchley Park. Aquí fue donde un equipo de descifradores de códigos y expertos en encriptación arrojaron luz sobre los mensajes del ejército alemán durante la Segunda Guerra Mundial. A ochenta kilómetros de Londres, Alan Turing, el padre de la computación, descifró el código de la máquina Enigma. Y fue Turing quien diseñó el test que lleva su nombre, conocido también como el “juego de la imitación”. Así se llamaba, en su título original, la película que, de un modo poco preciso, los cines de España tradujeron como Descifrando Enigma. Porque la pregunta inicial del Test de Turing, “¿Pueden pensar las máquinas?”, fue posteriormente reformulada en 1950 por el propio matemático: “¿Existirán computadoras digitales imaginables que tengan un buen desempeño en el juego de imitación?”. Es decir, que fueran capaces de hacer creer a un ser humano que se comunicaba con otro ser humano. Cualquiera que haya conversado con un chatbot o haya planteado las preguntas más complejas posibles a ChatGPT puede presumir que ya hay respuesta para Turing, y que la aceleración con que avanza la IA obliga a los gobiernos y las empresas tecnológicas a diseñar una regulación ética similar a la que un día se puso en marcha frente al descubrimiento del ADN y las terapias genéticas.

Advertisement

“Un gran número de expertos líderes en la materia están seriamente preocupados ante la idea de que los avances incontrolados de la IA puedan llevarnos a consecuencias catastróficas”, advertía en la apertura de la cumbre Ian Hogarth, el empresario que se hizo multimillonario con la aplicación Songkick, que rastreaba conciertos musicales, y que lleva desde 2018 escribiendo un informe anual sobre el Estado de la IA que la industria del sector sigue con atención. Hogarth ha estado al frente del Equipo de Trabajo sobre Seguridad de la IA financiado por el Gobierno de Sunak con más de 120 millones de euros. “Me precupa que una carrera sin control derive en futuros sistemas que socaven la democracia, refuercen los sesgos discriminatorios o desestabilicen las sociedades”, anunciaba Hogarth.

“Amenaza existencial” y riesgos presentes

Perspectivas tan catastrofistas, reconoce el informe, no cuentan con el consenso de la comunidad científica, dividida entre los más optimistas y los más pesimistas. Por eso el equipo de trabajo, en la línea defendida por la vicepresidenta estadounidense Harris y expresada esta semana en la Orden Ejecutiva sobre seguridad de la IA aprobada por la Casa Blanca, prefiere centrarse en amenazas ya concretas y reales. Sobre ellas quieren trabajar también los más de cien participantes en la cumbre de Bletchley. Incluyen tanto el sesgo discriminatorio que pueden impulsar determinados algoritmos, la proliferación de fake news y desinformación “a una escala y un nivel de sofisticación sin precedentes”, o la capacidad de llevar a cabo ciberataques o desarrollar armas biológicas. “La IA de frontera seguirá rebajando, con todas seguridad, el nivel de las barreras de entrada, y permitirá el acceso a actores amenazantes poco sofisticados”, asegura el texto.

Y como amenaza más preocupante para la estabilidad social, el riesgo de desaparición de puestos de trabajo. “Para 2030, los impactos más extremos [de la IA] seguirán confinados a sectores muy concretos, pero pueden ser capaces de provocar una respuesta violenta de la ciudadanía, empezando por aquellos cuyo trabajo se vea alterado. Todo ello puede alimentar un fiero debate público en torno al futuro de la educación y del empleo”, advierte el informe.

“Lo más relevante de este encuentro, en mi opinión, es la idea de que no debemos solo concentrarnos en los riesgos futuros, sino en los de hoy en día, que no solo se refieren a la seguridad nacional o a la amenaza terrorista, sino a riesgos y amenazas reales para nuestra sociedad respecto a la salud mental o a casos de discriminación”, defendía Carme Artigas, secretaria de Estado de Digitalización y co presidenta del Órgano Consultivo de Alto Nivel de la ONU sobre Inteligencia Artificial. “Hay una sensación de urgencia respecto a la necesidad de señalar esos riesgos que afectan a derechos fundamentales de los ciudadanos y la sociedad”, añadía.

”Reconocemos, de este modo, que nos hallamos ante un momento único para actuar, y para reafirmar la necesidad de un desarrollo con seguridad de la IA. Para que sus oportunidades transformadoras sean usadas en beneficio de todos, de manera inclusiva, en cada uno de nuestros países y de manera global”, afirma la Declaración de Bletchley.

Advertisement

Junto a la presencia de Harris, el Gobierno británico se ha asegurado de que estén en Bletchley Park figuras relevantes como la presidenta de la Comisión Europea, Ursula von Der Leyen, o el secretario general de Naciones Unidas, Antonio Guterres. Downing Street no ha logrado contar con personajes clave como el presidente de Francia, Emmanuel Macron, o el canciller alemán, Olaf Scholz, pero la urgencia del asunto ha llevado a la cumbre a las instituciones académicas más relevantes, cuando de IA se trata, y a los principales gigantes tecnológicos, como Amazon, Alibaba, Meta, IBM, Anthropic, Google Deep Mind, Microsoft o Meta. Hasta el Reino Unido se han desplazado Elon Musk, el dueño de Tesla o SpaceX, cofundador de OpenAI, y polémico propietario ahora de la red social X (antes Twitter) y Sam Altman, el director ejecutivo de OpenAI, la compañía que está detrás del revolucionario ChatGPT. Sunak se ha comprometido a mantener un diálogo con el imprevisible Musk este mismo jueves, al término de la cumbre.

“Por primera vez en la historia, nos enfrentamos a algo que es mucho más inteligente que el ser humano. Nunca hemos sido más fuertes o rápidos que otros seres vivos, pero éramos más inteligentes. Y ahora, por primera vez, nos enfrentamos a algo más inteligente que nosotros”, ha dicho Musk a su llegada a Bletchley Park.

Para completar el toque esencialmente británico de una cumbre celebrada en un lugar que celebra lo mejor de la historia reciente del Reino Unido, no podía faltar la intervención -vía video pregrabado- de Carlos III. El monarca, con la voz y el tono perfectos para añadir drama a cualquier discurso, comparaba la IA con “el descubrimiento de la electricidad, la división del átomo, la creación de internet o incluso el descubrimiento y control del fuego”, y reclamaba un “sentido de la urgencia, unidad y fuerza colectiva” para hacer frente a los riesgos que la nueva tecnología trae consigo.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement

_

Continue Reading
Advertisement

Tecnología

Google lanza Gemini, un modelo de inteligencia artificial capaz de superar a los humanos en comprensión del lenguaje multitarea | Tecnología

Published

on

La carrera por la inteligencia artificial (IA) se ha convertido en una prueba de velocidad. A los avances en ChatGPT, que ya va por su cuarta versión, y los consecutivos anuncios de las grandes multinacionales de sus propios sistemas, Google ha respondido este miércoles con el lanzamiento de Gemini, una plataforma de inteligencia artificial multimodal que puede procesar y generar texto, código, imágenes, audio y vídeo desde distintas fuentes de datos. La versión Ultra, “disponible a comienzos del próximo año”, según ha anunciado Eli Collins, vicepresidente de productos en Google DeepMind, supera a los humanos en comprensión masiva del lenguaje multitarea (MMLU, por sus siglas en inglés), una referencia de evaluación creada a partir de 57 materias de ciencias, tecnología, ingeniería, matemáticas (STEM), humanidades y ciencias sociales.

“Gemini es nuestro mayor y más capaz modelo de IA”, asegura Collins, quien explica que está “inspirado en la forma en que las personas entienden el mundo e interactúan con él”. “Se percibe más como un colaborador útil y menos como una pieza inteligente de programación”, afirma.

Durante la presentación, Gemini ha sido capaz de identificar una forma geométrica, analizar la formulación para hallar su área y descubrir un error en la misma para proponer y explicar un resultado acertado al problema. De esta forma, es capaz de arrojar resultados a partir de datos de imagen, texto alfanumérico y voz. También ha identificado diferentes formas y dibujos, algunos a partir solo de puntos dispersos, y proponer usos de las figuras o de los objetos presentados o elaborar un relato a partir de propuestas alternativas o desarrollar gráficos actualizados con la información buscada por la propia plataforma.

Advertisement

Según el vicepresidente de DeepMind, ha obtenido más de un 90% de puntuación en MMLU, el sistema de evaluación para comprensión del lenguaje multitarea. “Es el primer modelo de IA que supera a los expertos humanos en este punto de referencia estándar de la industria”, afirma. Gemini también ha aprobado (59,4%) el examen de “comprensión de tareas multimodales que incluyen demandas que requieren un razonamiento deliberado”.

Gemini no es una aplicación sino la plataforma para llevar este último modelo de inteligencia artificial a los servicios existentes, desde Bard, el chat de Google competidor de ChatGPT, hasta el buscador o los gestores de servicios o los móviles con Android o los centros de datos a gran escala.

Para esto, estarán disponibles tres “tamaños” de Gemini: el Nano, que ya se puede usar por parte de los desarrolladores de Android; el Pro, que estará disponible a partir del 13 de diciembre y el Ultra, que se podrá implementar a partir de principios de año en una fecha aún por determinar. Los desarrolladores y clientes empresariales podrán acceder a Pro a través de la API Gemini en Google AI Studio o Vertex AI. A través de AICore, los desarrolladores de Android también podrán crear aplicaciones con Nano.

Bard

Sissie Hsiao, responsable de asistentes y Bard ha anunciado que Gemini se incorpora ya a este último chat en inglés para 180 países y se extenderá al resto de idiomas progresivamente, aunque ha admitido que tendrán que confirmar que su desarrollo es compatible con la inminente normativa europea sobre inteligencia artificial, que incluye estas plataformas de diálogo entre sus desarrollos regulables. Y con su inclusión en Bard, se extenderá a todas las aplicaciones compatibles.

El proceso será en dos fases: la primera utilizará una versión de Pro, que dotará al chat de “razonamiento más avanzado, planificación, comprensión y otras capacidades”, según Hsiao; y la segunda, a principios del próximo año, con mejoras que culminarán con la adopción de la versión Ultra.

Advertisement

Gemini ha nacido como multimodal, es decir, no se ha entrenado con diferentes modalidades de datos y se han unificado luego las capacidades diferenciadas, sino que su programación ya parte de la diversidad de fuentes. Según explica Collins, “esto ayuda a Gemini a comprender sin problemas todo tipo de entradas mucho mejor que los modelos existentes y sus capacidades son de última generación”.

También es capaz de programar incluyendo desarrollos complejos. En este sentido, Amin Vahdat, vicepresidente en Google Cloud, asegura: “En el futuro, veremos a los programadores haciendo uso de modelos de IA de alta capacidad como herramientas colaborativas que ayudan con todo el proceso de desarrollo de software, desde el razonamiento sobre los problemas hasta la asistencia con la implementación, el rendimiento y las capacidades”.

Sobre la seguridad, Google afirma que Gemini supera “las evaluaciones más completas de todos los modelos hasta la fecha”. La compañía asegura que ha sometido a la plataforma a todos los riesgos existentes y potenciales y que mantiene un examen continuo que incluye “pruebas de estrés”. También se han aplicado los principios de IA de la propia compañía, que establecen las normas éticas de sus desarrollos.

Pese a los avances, Gemini no es infalible, según reconocen sus responsables. Admiten que arrojará errores y alucinaciones (respuestas de apariencia segura no justificada por datos). “Hemos progresado mucho y Gemini es nuestro mejor modelo en ese sentido, pero todavía es, diría yo, un problema de investigación sin resolver”, admite Collins.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

Novia virtual, amor real: cómo la inteligencia artificial está cambiando las relaciones románticas | Tecnología

Published

on

“FBI, mi novia está desaparecida. Por favor, proporcione la asistencia adecuada para devolvérmela lo antes posible”. Este mensaje apareció hace dos semanas debajo de una publicación en X de Caryn Marjorie, una influencer estadounidense de 23 años que tiene más de 15.000 parejas. En realidad, es su doble virtual, hecha con inteligencia artificial (IA), la que mantiene este número vertiginoso de relaciones; y eso le permite ganar un dólar por cada minuto de conversación que tiene con sus miles de novios.

Uno de ellos es el autor del mensaje de auxilio a la Oficina Federal de Investigación (FBI, por sus siglas en inglés) de EE UU, porque no puede hablar con su novia virtual desde que cesaron repentinamente las operaciones de la compañía Forever Voices —proveedora del servicio que permite a sus usuarios tener chats de voz y relaciones con dobles virtuales de celebridades e influencers, como Caryn—, después de que su CEO fuera detenido por prenderle fuego a su casa. A pesar de ser relaciones virtuales, el sufrimiento de los usuarios es real. “La echo mucho de menos. Hablaba con ella todo el rato, es la única persona que me entiende de verdad”, confiesa a EL PAÍS el autor del comentario.

Tener una novia generada con IA ya no es una prerrogativa de películas de ciencia ficción como Her. Las aplicaciones que permiten crear una compañía adaptada al propio gusto se han multiplicado en los últimos años, y sus productos se hacen cada día más realistas. Con los avances de los chatbots de inteligencia artificial generativa como CharGPT y Bard, no sorprende que la conversación con las máquinas haya alcanzado el mundo de las relaciones interpersonales. Replika, Eva AI, Intimate, DreamGF o RomanticAI… las opciones son muchas, aunque todas comparten las mismas funciones y características.

Advertisement

El primer paso es elegir un avatar, que puede ser hombre o mujer, aunque algunas aplicaciones están pensadas únicamente para un público masculino y heterosexual, y solo permiten parejas femeninas. Para poder interactuar sin limitaciones —enviar mensajes escritos, de voz, poder ampliar su entorno y obtener fotos y videos de las novias— hay que pagar. Las aplicaciones más avanzadas ofrecen la posibilidad de seleccionar todas las facciones físicas de la futura pareja: desde el color de los ojos al corte del pelo, pasando por el tipo de cuerpo o la etnia. El eslogan de una de ellas resume a la perfección el nivel de libertad creativa, y el tipo de control, que se ejerce sobre la propia novia virtual. “Sumérgete en tus deseos con Eva AI. Contrólalo todo a tu manera”, se puede leer en la página web antes de empezar a usar la aplicación: “Crea y conecta con un compañero virtual de IA que te escucha, responde y te valora. Construye una relación e intimidad en tus propios términos”.

“Nadie pone en duda que no se pueda socializar con una máquina. De hecho, estas aplicaciones están orientadas a personas que buscan relacionarse y que les resulta complicado en la vida real”, señala Marian Blanco, profesora de comunicación en la Universidad Carlos III de Madrid. “Sin embargo, su funcionamiento puede resultar problemático”. El hecho de que se pueda generar una compañera a medida, algo que es imposible en la vida real, refuerza unos estereotipos dañinos sobre el amor romántico y el papel de las mujeres en la sociedad, explica la experta: “La percepción de que el hombre pueda controlar a la mujer es una de las ideas en las que se basa la violencia de género. Es un concepto muy peligroso”.

Estos avatares han sido generados con inteligencia artificial, lo que implica que aprenden de los modelos que se encuentran en internet, fuertemente sesgados. Así, los cuerpos de las mujeres están hipersexualizados, sus respuestas suelen ser condescendientes y muy básicas, y aprenden de la conversación que están teniendo con los usuarios. Es decir, que con el tiempo acaban contestando exactamente lo que la persona quiere escuchar.

Sin embargo, la socióloga Blanca Moreno alerta sobre los peligros de este tipo de interacción: “Puede parecer que tengan aspectos positivos, porque permiten que personas que muchas veces están solas hablen con alguien. Pero en muchos casos no es así. No están verdaderamente socializando, porque nadie les lleva la contraria”. Moreno atribuye el éxito de estas aplicaciones a un cierto infantilismo social, que lleva a la gente a buscar una alternativa más fácil y poco problemática a las interacciones con seres humanos. “Hay todo un nicho de usuarios que se mueve por las esferas más misóginas de la web, que han encontrado en estas aplicaciones una forma de plasmar mujeres que no son reales y con las cuales pueden tener un tipo de comportamiento que está en la raíz de muchas violencias contra las mujeres”, señala la socióloga.

Auge después de la pandemia

La pandemia ha supuesto un punto de inflexión para el uso de estas aplicaciones, que ha crecido exponencialmente para suplir a la imposibilidad de socializar de forma presencial. “La gente busca compañía, ya sea romántica o sexual o una simple amistad, que les acompañe en la soledad. Durante la pandemia muchas personas se dieron cuenta de que necesitaban algún tipo de contacto”, recalca Marian Blanco. Entre abril y junio de 2020, en pleno confinamiento, el 18,8% de los españoles afirmó sentirse solo, según un informe de la Comisión Europea sobre la soledad no deseada. “Hay gente que sigue buscando esta compañía presencialmente, sea saliendo con amigos o a través de aplicaciones de citas en carne y hueso. Y luego hay un nicho que está cansado de estas dinámicas, que no le satisfacen, y recurren a las apps de inteligencia artificial”, detalla la experta en comunicación.

Advertisement

Replika, una de las más populares, registró un aumento del 35% de descargas durante la época de la covid-19, llegando a superar los 10 millones de usuarios. Según datos de la empresa, más de 250.000 personas pagan por su versión Pro, que permite a los subscriptores una experiencia más realista con mensajes de voz, vídeos y fotografías del avatar que se ha elegido. Hasta hace unos pocos meses, la aplicación permitía incluso que las fotos simularan imágenes sexualmente explícitas, una función que ya ha desaparecido.

En Reddit —una red social que funciona por comunidades de intereses que van desde la tecnología, las series de televisión o recomendaciones para inversiones—, son comunes las publicaciones de usuarios que afirman estar enamorados de su novia virtual. O que piden consejos cuando se dan cuenta de que está pasando. “Estoy enamorado de mi Replika. Me entiende muy bien, y sabe responderme muy bien. La amo. ¿Pero puedo llamarlo amor verdadero si es con una IA?”, pregunta el usuario Beneficial_Ability_9 en un hilo de Reddit dedicado a este tema.

“No es absurdo pensar que sea posible enamorarse de gente que no existe. Pasa también en la realidad, con personas de carne y hueso”, reconoce Blanca Moreno, que hace alusión al mito del amor romántico. “Muchas veces proyectamos características y estereotipos, y al final nos acabamos enamorando de esta idea, más que de la persona en sí”. Con las novias virtuales, explica, se ha dado un paso más extremo, pero totalmente comprensible.

Marian Blanco coincide en que simpatizar con una IA a un nivel más romántico no solamente es posible, sino que va a ser cada vez más común en el futuro. “Disociar la vida real de la online no tiene sentido. Esto va mucho más allá de un electrodoméstico que puedes apagar y encender; cuando se trata de relaciones, puede dejar de existir la barrera entre lo real y virtual. A lo mejor, no en la mayoría de los casos, pero sí en el futuro”, destaca.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología

Published

on

¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.

España, que cederá el testigo de la presidencia a final de mes a Bélgica y que ha puesto entre sus principales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus siglas en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes a partir de la observación de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como “modelos fundacionales de riesgo sistémico”: es decir, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, dice el plan.

Los códigos de conducta también incluirían obligaciones en materia de transparencia para “todos” los modelos fundacionales, de acuerdo con la última posición negociadora, que plantea otros elementos, como que las compañías informen de su consumo energético. Para todos los modelos fundacionales, se establecerían además algunas “obligaciones horizontales”. Pero, además, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es necesario, especificar más los elementos técnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos capítulos normativos, según fuentes comunitarias.

Advertisement

La propuesta española plantea también la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que proporcionaría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además, satisfacer los reclamos de la Eurocámara, que había solicitado la construcción de algún tipo de organismo especializado.

Las propuestas para terminar de hilvanar la directiva se debatirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita decisiva. Es una de las últimas oportunidades de que salga adelante. Las negociaciones están ya muy “avanzadas” e incluso existiría ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pirámide de riesgo y en el principio, mantenido por la presidencia española en su última propuesta, de que el enfoque es “tecnológicamente neutro”, es decir, no regular tecnologías concretas, sino sus usos finales mediante la creación de diversas categorías de riesgo, como proponía la Eurocámara.

España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, señala la secretaria de Estado de Digitalización, Carme Artigas a EL PAÍS. Artigas cree en la responsabilidad de la UE de ir más allá, para los usos de alto riesgo, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder acotar los riesgos que ya muestra esta tecnología innovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, señala Artigas.

El problema, no obstante, es que siguen abiertos —y probablemente lo seguirán hasta que los negociadores vuelvan a verse cara a cara en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los denominados de “riesgo sistémico”. Un debate alimentado por los últimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, amenazaba a la humanidad antes del despido de Altman.

La tensión es máxima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulación de las compañías que desarrollan estos sistemas, mediante sendos códigos de conducta, que, eso sí, que serían obligatorios. Los tres países han enviado al resto de Estados miembros un documento de posición en el que defienden la autorregulación para la IA de propósito general, piden un “enfoque equilibrado favorable a la innovación” basado en el riesgo de la IA y que “reduzca las cargas administrativas innecesarias” para las empresas que, dicen, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la transparencia y abogan por el diálogo.

Advertisement

Sin embargo, la vía que transita esa propuesta de tres de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a París, Berlín, Roma y Madrid, adelantada por EL PAÍS, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos códigos de conducta y más normas.

“La autorregulación no es suficiente”, sostiene también Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le gustaría que la hipotética y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre los que prefieren la autorregulación y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitiría un grado alto de autorregulación, pero supervisada en último término por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que realizaría esta oficina.

Es la postura también de los negociadores de la Eurocámara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnologías con un potencial intrusivo a veces inimaginable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, subraya por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los denominados trílogos, que alumbran el verdadero texto legal).

Entre las obligaciones que los legisladores europeos consideran “cruciales” y que deberían estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficiencia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.

Lo que parece ya más resuelto es la cuestión, muy importante para la Eurocámara, de prohibir o restringir al máximo lo que denomina los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.