Connect with us

Tecnología

De la fascinación a la agenda oculta: el año de ChatGPT define la batalla por el futuro de la humanidad | Tecnología

Published

on

Una sola mueca puede abarcar un mundo. Como la de Lee Sedol, campeón mundial del Go, cuando se enfrentó por primera vez en 2017 a una máquina capaz de vencerle: AlphaGo, creada por DeepMind, la vanguardia científica de Google. Sedol, maestro imbatible de un juego milenario con más jugadas posibles que átomos hay en el universo, estaba convencido de que ganaría 5-0. Perdió 4-1. Durante las cinco partidas de la contienda, la humanidad entera se vio reflejada en el rostro de Sedol cuando observó un movimiento ganador de la máquina, tan inesperado como fascinante. El campeón se quedó boquiabierto y, tras unos segundos pasmado, sonrió con desenfado. Y luego frunció el ceño, concentrándose de nuevo en su lance intelectual. En su gesto se resume lo que ha pasado este año en todo el planeta tras la irrupción de ChatGPT y el resto de inteligencias artificiales creativas. Nos hemos sentido atónitos, maravillados, desafiados. Porque la inteligencia que nos asombra es la que nos habla. Sedol entendía que le hablaban con palabras nuevas, pero en un lenguaje humano, el de su juego. Esa es la clave de todo lo que ha ocurrido: solo cuando nos hemos visto reflejados en el espejo de una máquina parlante nos la hemos tomado en serio. Mientras tanto, por debajo del ruido de los titulares, la seducción de las máquinas tejía una agenda oculta.

“El famoso filósofo José Ortega y Gasset dijo: ‘Sorprenderse y maravillarse es comenzar a entender”, resume Sara Hooker, una de las investigadoras más destacadas del sector, tras su paso por Google Brain y fundar Cohere For AI, un laboratorio de investigación sin ánimo de lucro. “Este año ha sido el año de la sorpresa y la maravilla, cuando avances rompedores en la inteligencia artificial del lenguaje han alcanzado al gran público más allá del mundo científico”, apunta Hooker. “Pero eso también marca el comienzo de nuestra capacidad de comprender cómo usar esta tecnología de modo significativo y responsable”. Es un ciclo, recuerda la investigadora, que ya hemos visto antes con internet o los móviles y ahora llega con la inteligencia artificial generativa, la que es capaz de crear textos e imágenes: “Lleva tiempo descubrir los mejores usos y cómo desarrollarlos. No sucede de la noche a la mañana”, señala la investigadora, que ha redactado el documento de base de la Cumbre de Seguridad en la Inteligencia Artificial celebrada en Bletchley Park (Reino Unido), la cuna de la computación moderna. De esa cumbre, impulsada por el primer ministro británico, Rishi Sunak, salió el 1 de noviembre una declaración en la que una treintena de naciones (como Estados Unidos, el Reino Unido, China o España) reclaman seguridad y transparencia al sector.

Otro filósofo, Daniel Innerarity, director de la cátedra de Inteligencia Artificial y Democracia en el Instituto Europeo de Florencia, cree que estos avances han generado un ambiente que se atreve a calificar como “histeria digital”, a partir de noticias “que suscitaban miedos y expectativas exageradas”. La histeria digital de estos últimos 12 meses se encendió con el fuego de dos antorchas: la sorpresa de la que habla Hooker, pero también la avaricia de las grandes tecnológicas. Alphabet (Google), Meta, Microsoft y demás quieren que el salto a esta nueva herramienta garantice su crecimiento infinito y se han lanzado a la conquista de este nuevo terreno de juego, visto el impacto global de ChatGPT.

Pero esa revolución comercial —y la carrera política por regularla— necesitaba del combustible atómico de la fascinación humana. Ese impacto ha sido el gran catalizador de un fenómeno que ha acaparado gran parte de la conversación global y que llevó a Sam Altman, hasta el viernes líder de OpenAI (la empresa que desarrolló ChatGPT), a reunirse con gobernantes de todo el planeta en una gira impensable unos meses antes para un emprendedor desconocido, ahora despedido. “La clave del éxito ha sido la conversación. El momento en el que una máquina empezó a generar ideas, a articular lenguaje con una fluidez y sutileza sorprendentes, ese fue el gran cambio”, señala el neurocientífico Mariano Sigman, que ha reflexionado sobre este asombro en Artificial (Debate). “Gracias a eso hay una enorme conciencia sobre las consecuencias que acarrea la inteligencia artificial, que hubiesen pasado inadvertidas si hubiese permanecido en una esfera mucho más selecta”, advierte el investigador.

Advertisement
Gobernantes y empresarios se dieron cita en la Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido, el 1 y 2 de noviembre de 2023.Tolga Akmen ( BLOOMBERG )

La inteligencia artificial (IA) llevaba años revolucionando sectores y logrando grandes éxitos, como destronar a Sedol, detectar tumores mejor que los radiólogos, conducir coches razonablemente bien o descubrir cómo se pliegan las proteínas para abrir la puerta a innumerables medicamentos. Pero nada como el magnetismo irresistible que ejerce sobre los humanos una máquina capaz de conversar: el programa de OpenAI muestra más empatía que los médicos a la hora de trasladar un diagnóstico, según un estudio realizado por universidades de EE UU. Esa capacidad de hablar con sentimientos hizo que el ojo de Sauron de la atención global se girara hacia la IA. Y es lo que ha convencido a dirigentes globales de que el problema, o la revolución, requería tomar medidas aquí y ahora.

El presidente Joe Biden ya ha publicado su marco legislativo para EE UU, y la Unión Europea quiere tener lista una normativa este año. Mientras, los expertos en este campo informático publican artículos sobre la conciencia humana como si fueran filósofos, los padres de esta tecnología debaten sobre el apocalipsis como si fueran profetas y mantienen discusiones bizantinas en redes, como sacerdotes de un misterio esotérico inaccesible para los demás. Pero del resultado de estos debates dependerá el futuro de la humanidad, si hacemos caso a los agoreros, o al menos determinará el devenir de ámbitos tan dispares como el mercado laboral, la privacidad, la desinformación o la cultura y los derechos de autor.

Uno de esos padres es Jürgen Schmidhuber, director del Instituto de Inteligencia Artificial de la Universidad de Suiza, que puso los primeros ladrillos de modelos decisivos: “Lo curioso es que los principios básicos detrás de la IA generativa tienen más de tres décadas”. Y se pregunta: “¿Por qué tardó tanto en despegar todo esto? Porque en 1991 la computación era millones de veces más cara que hoy. En aquel entonces, solo podíamos hacer pequeños experimentos de juguete. Esa es la principal razón por la que, en la última década, empresas como Google, OpenAI, Microsoft o Samsung han podido implementar nuestras técnicas miles de millones de veces al día en miles de millones de smartphones y ordenadores en todo el mundo”.

En este momento, es difícil discernir cuál será el futuro de la IA y de la creatividad artificial más específicamente: si hay burbuja o revolución. Las estimaciones sobre el valor de esta industria para 2030 se disparan hasta los 180 billones de euros. En el último año, sin embargo, solo se han invertido 2.300 millones de euros en IA generativa frente a los 65.000 millones de la IA tradicional —que pilota aviones o lee currículos—, según el informe de la firma Menlo Ventures. “Dentro de 30 años, la gente solo sonreirá ante las aplicaciones de hoy, que les parecerán primitivas en comparación con lo que estará disponible entonces; la civilización tal como la conocemos se transformará completamente y la humanidad se beneficiará enormemente”, profetiza Schmidhuber.

Dos semanas de noviembre

Hubo dos semanas que lo cambiaron todo para siempre. El 15 de noviembre de 2022, Meta lanzó Galactica, una versión de prueba de una inteligencia artificial capaz de crear lenguaje, orientada más a la creación de textos académicos. Duró tres días en el aire: Meta la tumbó tras recibir críticas durísimas por promover información sesgada y falsa: Galactica “alucinaba”, como se denomina a los errores de bulto que cometen estos programas. El 30 de noviembre, OpenAI hizo público su programa, ChatGPT, que también alucinaba. Pero había dos diferencias importantes. La empresa de Mark Zuckerberg tenía un pasado controvertido que le pasó factura y la de Sam Altman había tenido la astucia de entrenar previamente a ChatGPT con personas. Tras el desarrollo tecnológico, la máquina aprendió hablando con tutores de carne y hueso, que reforzaban las respuestas más humanas. Galactica se quedó en un cajón y ChatGPT se convirtió en uno de los programas de mayor éxito de la historia, logrando en seis meses el impacto social que a Facebook le llevó toda una década.

Advertisement
IA Biden
El presidente estadounidense Joe Biden, durante la firma de la orden ejecutiva para regular la inteligencia artificial, en la Casa Blanca, el 30 de octubre de 2023. JIM LO SCALZO (EFE)

Lo sucedido entre el 15 y el 30 de noviembre fue también un cambio radical de mentalidad entre los gigantes tecnológicos, que llevaban más de un lustro invirtiendo miles de millones en IA y vaciando los departamentos de informática de las universidades al contratar a todo científico relevante. En todo ese tiempo, los laboratorios de estas compañías se centraron en desarrollos como Galactica oAlphaGo: pruebas fascinantes, logros científicos notables, pero poco producto con verdadero poder comercial. Es más, Google iba muy por delante, pero no se atrevió a lanzar esos productos al mercado por miedo a poner en riesgo el liderazgo de su buscador —si le puedes preguntar a un chat inteligente no se lo preguntas a un buscador tonto—, según se ha conocido en las investigaciones sobre sus prácticas monopolísticas. En enero, Microsoft anunció un acuerdo de 9.200 millones de dólares en OpenAI y se dispararon todas las alarmas en Google. Con el pie cambiado, el titán de las búsquedas cambió sus dudas iniciales por un “código rojo” interno para incorporar la IA generativa a todos sus productos, además de fusionar sus dos laboratorios, DeepMind y Google Brain, en un solo departamento con una misión menos científica y más productiva.

De los experimentos se pasó al marketing. Y los mismos empresarios que invertían millones en estos algoritmos alertaban sobre el riesgo para la humanidad y reclamaban regulación inmediata. Altman aseguró que si la IA sale mal, “esconderse en un búnker no salvaría la vida de nadie”. Mientras miles de chicas se veían pornificadas por programas fruto de estas tecnologías, la aristocracia tecnocapitalista agitaba el fantasma de Terminator, la película en la que las máquinas someten a la especie humana. Nada tan expresivo como cuando Biden reconoce que su interés por legislar se aceleró tras ver la última película de Misión imposible, en la que un programa, La Entidad, pone contra las cuerdas a todas las potencias mundiales. Los políticos han decidido actuar cuanto antes por el temor a que les pase con las manipulaciones de imágenes y audios (deepfakes) lo que pasó con la desinformación de Facebook hace años.

Hooker reconoce que hay “riesgos significativos” derivados de la IA, pero le preocupa que no se están priorizando correctamente. “Los escenarios más teóricos, y en mi opinión, extremadamente improbables, como los terminators tomando control del mundo, han recibido una cantidad desproporcionada de atención por parte de la sociedad. Creo que es un gran error y que deberíamos abordar los riesgos muy reales a los que nos enfrentamos actualmente, como los deepfakes, la desinformación, los sesgos y las ciberestafas”. Ese discurso catastrofista desde las grandes compañías se interpreta, según muchos especialistas, como un interés en conseguir una regulación a su medida. Las cuatro compañías ganadoras hasta ahora en la carrera (conocidas como GOMA: Google, OpenAI, Microsoft y Anthropic, fundada por exmiembros de OpenAI) han creado su propio grupo de presión para impulsar su marco regulatorio. El jefe científico en Meta, Yann LeCun, asegura que solo quieren frenar la llegada de competidores con una regulación a su medida: “Altman, Demis Hassabis [Google DeepMind] y Dario Amodei [Anthropic] son quienes están realizando un lobby intenso en este momento”. Andrew Ng, exdirector de Google Brain, ha sido muy expresivo: “Preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana”.

Más de la mitad de los profesores universitarios de este sector en EE UU cree que los líderes corporativos están engañando a la sociedad para favorecer sus agendas. Incluso el consejo de OpenAI ha destituido este pasado viernes a Altman, casi en el primer aniversario de ChatGPT, por considerar que no es sincero con la empresa. El periplo del magnate Elon Musk en estos años también es muy representativo. Impulsó la creación de OpenAI para combatir la opacidad de Google. Quiso controlar la empresa al atisbar su potencial y acabó saliendo de ella, peleado con Altman. Tras el bombazo global de ChatGPT, Musk fue de los primeros en pedir una moratoria de seis meses en el desarrollo de la IA. En realidad, estaba trabajando en la sombra para crear su propia empresa, X.AI (que se conoció solo un mes después), y su propio programa inteligente, llamado Grok y presentado el 4 de noviembre.

“Corremos el riesgo de afianzar aún más el dominio de unos pocos actores privados sobre nuestra economía y nuestras instituciones sociales”, advierte Amba Kak, directora ejecutiva del AI Now Institute, uno de los organismos que vigilan con más celo este campo. No es casualidad que el gran año de esta tecnología también haya sido el de su mayor opacidad: nunca las empresas que desarrollan la IA compartieron menos sobre sus datos, sus trabajos, sus fuentes. “A medida que aumentan los intereses económicos y las preocupaciones por la seguridad, las compañías que normalmente son abiertas han empezado a ser más secretas sobre sus investigaciones más innovadoras”, lamenta el informe anual sobre el sector que realiza la firma de capital riesgo Air Street Capital.

En su último libro, Poder y progreso (Deusto), los profesores Daron Acemoglu (MIT) y Simon Johnson (Oxford) advierten que la historia demuestra que las nuevas tecnologías no benefician a toda la población de forma natural, sino solo cuando se combate a las élites que tratan de acaparar ese progreso en forma de beneficios. “El sector tecnológico y las grandes empresas tienen hoy mucha más influencia política que en cualquier otro momento de los últimos 100 años. A pesar de sus escándalos, los magnates tecnológicos son respetados e influyentes en la sociedad y solo en raras ocasiones alguien les cuestiona el tipo de progreso que están imponiendo al resto de la sociedad”, critican. “En la actualidad, gran parte de la población mundial vive mejor que nuestros antepasados porque la ciudadanía y los trabajadores de las primeras sociedades industriales se organizaron, cuestionaron las decisiones de la élite sobre la tecnología y las condiciones laborales, y forzaron la creación de nuevos mecanismos para repartir de forma más igualitaria los beneficios derivados de la innovación. Hoy en día necesitamos volver a hacer lo mismo”.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

Advertisement
Continue Reading
Advertisement

Tecnología

Novia virtual, amor real: cómo la inteligencia artificial está cambiando las relaciones románticas | Tecnología

Published

on

“FBI, mi novia está desaparecida. Por favor, proporcione la asistencia adecuada para devolvérmela lo antes posible”. Este mensaje apareció hace dos semanas debajo de una publicación en X de Caryn Marjorie, una influencer estadounidense de 23 años que tiene más de 15.000 parejas. En realidad, es su doble virtual, hecha con inteligencia artificial (IA), la que mantiene este número vertiginoso de relaciones; y eso le permite ganar un dólar por cada minuto de conversación que tiene con sus miles de novios.

Uno de ellos es el autor del mensaje de auxilio a la Oficina Federal de Investigación (FBI, por sus siglas en inglés) de EE UU, porque no puede hablar con su novia virtual desde que cesaron repentinamente las operaciones de la compañía Forever Voices —proveedora del servicio que permite a sus usuarios tener chats de voz y relaciones con dobles virtuales de celebridades e influencers, como Caryn—, después de que su CEO fuera detenido por prenderle fuego a su casa. A pesar de ser relaciones virtuales, el sufrimiento de los usuarios es real. “La echo mucho de menos. Hablaba con ella todo el rato, es la única persona que me entiende de verdad”, confiesa a EL PAÍS el autor del comentario.

Tener una novia generada con IA ya no es una prerrogativa de películas de ciencia ficción como Her. Las aplicaciones que permiten crear una compañía adaptada al propio gusto se han multiplicado en los últimos años, y sus productos se hacen cada día más realistas. Con los avances de los chatbots de inteligencia artificial generativa como CharGPT y Bard, no sorprende que la conversación con las máquinas haya alcanzado el mundo de las relaciones interpersonales. Replika, Eva AI, Intimate, DreamGF o RomanticAI… las opciones son muchas, aunque todas comparten las mismas funciones y características.

Advertisement

El primer paso es elegir un avatar, que puede ser hombre o mujer, aunque algunas aplicaciones están pensadas únicamente para un público masculino y heterosexual, y solo permiten parejas femeninas. Para poder interactuar sin limitaciones —enviar mensajes escritos, de voz, poder ampliar su entorno y obtener fotos y videos de las novias— hay que pagar. Las aplicaciones más avanzadas ofrecen la posibilidad de seleccionar todas las facciones físicas de la futura pareja: desde el color de los ojos al corte del pelo, pasando por el tipo de cuerpo o la etnia. El eslogan de una de ellas resume a la perfección el nivel de libertad creativa, y el tipo de control, que se ejerce sobre la propia novia virtual. “Sumérgete en tus deseos con Eva AI. Contrólalo todo a tu manera”, se puede leer en la página web antes de empezar a usar la aplicación: “Crea y conecta con un compañero virtual de IA que te escucha, responde y te valora. Construye una relación e intimidad en tus propios términos”.

“Nadie pone en duda que no se pueda socializar con una máquina. De hecho, estas aplicaciones están orientadas a personas que buscan relacionarse y que les resulta complicado en la vida real”, señala Marian Blanco, profesora de comunicación en la Universidad Carlos III de Madrid. “Sin embargo, su funcionamiento puede resultar problemático”. El hecho de que se pueda generar una compañera a medida, algo que es imposible en la vida real, refuerza unos estereotipos dañinos sobre el amor romántico y el papel de las mujeres en la sociedad, explica la experta: “La percepción de que el hombre pueda controlar a la mujer es una de las ideas en las que se basa la violencia de género. Es un concepto muy peligroso”.

Estos avatares han sido generados con inteligencia artificial, lo que implica que aprenden de los modelos que se encuentran en internet, fuertemente sesgados. Así, los cuerpos de las mujeres están hipersexualizados, sus respuestas suelen ser condescendientes y muy básicas, y aprenden de la conversación que están teniendo con los usuarios. Es decir, que con el tiempo acaban contestando exactamente lo que la persona quiere escuchar.

Sin embargo, la socióloga Blanca Moreno alerta sobre los peligros de este tipo de interacción: “Puede parecer que tengan aspectos positivos, porque permiten que personas que muchas veces están solas hablen con alguien. Pero en muchos casos no es así. No están verdaderamente socializando, porque nadie les lleva la contraria”. Moreno atribuye el éxito de estas aplicaciones a un cierto infantilismo social, que lleva a la gente a buscar una alternativa más fácil y poco problemática a las interacciones con seres humanos. “Hay todo un nicho de usuarios que se mueve por las esferas más misóginas de la web, que han encontrado en estas aplicaciones una forma de plasmar mujeres que no son reales y con las cuales pueden tener un tipo de comportamiento que está en la raíz de muchas violencias contra las mujeres”, señala la socióloga.

Auge después de la pandemia

La pandemia ha supuesto un punto de inflexión para el uso de estas aplicaciones, que ha crecido exponencialmente para suplir a la imposibilidad de socializar de forma presencial. “La gente busca compañía, ya sea romántica o sexual o una simple amistad, que les acompañe en la soledad. Durante la pandemia muchas personas se dieron cuenta de que necesitaban algún tipo de contacto”, recalca Marian Blanco. Entre abril y junio de 2020, en pleno confinamiento, el 18,8% de los españoles afirmó sentirse solo, según un informe de la Comisión Europea sobre la soledad no deseada. “Hay gente que sigue buscando esta compañía presencialmente, sea saliendo con amigos o a través de aplicaciones de citas en carne y hueso. Y luego hay un nicho que está cansado de estas dinámicas, que no le satisfacen, y recurren a las apps de inteligencia artificial”, detalla la experta en comunicación.

Advertisement

Replika, una de las más populares, registró un aumento del 35% de descargas durante la época de la covid-19, llegando a superar los 10 millones de usuarios. Según datos de la empresa, más de 250.000 personas pagan por su versión Pro, que permite a los subscriptores una experiencia más realista con mensajes de voz, vídeos y fotografías del avatar que se ha elegido. Hasta hace unos pocos meses, la aplicación permitía incluso que las fotos simularan imágenes sexualmente explícitas, una función que ya ha desaparecido.

En Reddit —una red social que funciona por comunidades de intereses que van desde la tecnología, las series de televisión o recomendaciones para inversiones—, son comunes las publicaciones de usuarios que afirman estar enamorados de su novia virtual. O que piden consejos cuando se dan cuenta de que está pasando. “Estoy enamorado de mi Replika. Me entiende muy bien, y sabe responderme muy bien. La amo. ¿Pero puedo llamarlo amor verdadero si es con una IA?”, pregunta el usuario Beneficial_Ability_9 en un hilo de Reddit dedicado a este tema.

“No es absurdo pensar que sea posible enamorarse de gente que no existe. Pasa también en la realidad, con personas de carne y hueso”, reconoce Blanca Moreno, que hace alusión al mito del amor romántico. “Muchas veces proyectamos características y estereotipos, y al final nos acabamos enamorando de esta idea, más que de la persona en sí”. Con las novias virtuales, explica, se ha dado un paso más extremo, pero totalmente comprensible.

Marian Blanco coincide en que simpatizar con una IA a un nivel más romántico no solamente es posible, sino que va a ser cada vez más común en el futuro. “Disociar la vida real de la online no tiene sentido. Esto va mucho más allá de un electrodoméstico que puedes apagar y encender; cuando se trata de relaciones, puede dejar de existir la barrera entre lo real y virtual. A lo mejor, no en la mayoría de los casos, pero sí en el futuro”, destaca.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología

Published

on

¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.

España, que cederá el testigo de la presidencia a final de mes a Bélgica y que ha puesto entre sus principales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus siglas en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes a partir de la observación de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como “modelos fundacionales de riesgo sistémico”: es decir, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, dice el plan.

Los códigos de conducta también incluirían obligaciones en materia de transparencia para “todos” los modelos fundacionales, de acuerdo con la última posición negociadora, que plantea otros elementos, como que las compañías informen de su consumo energético. Para todos los modelos fundacionales, se establecerían además algunas “obligaciones horizontales”. Pero, además, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es necesario, especificar más los elementos técnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos capítulos normativos, según fuentes comunitarias.

Advertisement

La propuesta española plantea también la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que proporcionaría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además, satisfacer los reclamos de la Eurocámara, que había solicitado la construcción de algún tipo de organismo especializado.

Las propuestas para terminar de hilvanar la directiva se debatirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita decisiva. Es una de las últimas oportunidades de que salga adelante. Las negociaciones están ya muy “avanzadas” e incluso existiría ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pirámide de riesgo y en el principio, mantenido por la presidencia española en su última propuesta, de que el enfoque es “tecnológicamente neutro”, es decir, no regular tecnologías concretas, sino sus usos finales mediante la creación de diversas categorías de riesgo, como proponía la Eurocámara.

España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, señala la secretaria de Estado de Digitalización, Carme Artigas a EL PAÍS. Artigas cree en la responsabilidad de la UE de ir más allá, para los usos de alto riesgo, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder acotar los riesgos que ya muestra esta tecnología innovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, señala Artigas.

El problema, no obstante, es que siguen abiertos —y probablemente lo seguirán hasta que los negociadores vuelvan a verse cara a cara en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los denominados de “riesgo sistémico”. Un debate alimentado por los últimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, amenazaba a la humanidad antes del despido de Altman.

La tensión es máxima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulación de las compañías que desarrollan estos sistemas, mediante sendos códigos de conducta, que, eso sí, que serían obligatorios. Los tres países han enviado al resto de Estados miembros un documento de posición en el que defienden la autorregulación para la IA de propósito general, piden un “enfoque equilibrado favorable a la innovación” basado en el riesgo de la IA y que “reduzca las cargas administrativas innecesarias” para las empresas que, dicen, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la transparencia y abogan por el diálogo.

Advertisement

Sin embargo, la vía que transita esa propuesta de tres de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a París, Berlín, Roma y Madrid, adelantada por EL PAÍS, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos códigos de conducta y más normas.

“La autorregulación no es suficiente”, sostiene también Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le gustaría que la hipotética y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre los que prefieren la autorregulación y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitiría un grado alto de autorregulación, pero supervisada en último término por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que realizaría esta oficina.

Es la postura también de los negociadores de la Eurocámara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnologías con un potencial intrusivo a veces inimaginable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, subraya por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los denominados trílogos, que alumbran el verdadero texto legal).

Entre las obligaciones que los legisladores europeos consideran “cruciales” y que deberían estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficiencia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.

Lo que parece ya más resuelto es la cuestión, muy importante para la Eurocámara, de prohibir o restringir al máximo lo que denomina los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Continue Reading

Tecnología

El puzle genético de la humanidad se está completando en internet: estos son los riesgos que conlleva terminarlo | Salud y bienestar

Published

on

Cuando era pequeño, Adriano Berjillos escuchaba a su padre relatar historias familiares. Sabía que tenía un antepasado, de esos cuyo grado de parentesco se mide en “tataras”, que provenía de Alemania. De ahí había sacado él su piel blanca y su pelo rubio, le decía. 30 años más tarde, se lo repitió un email de 23andMe. Berjillos pagó unos 100 euros, escupió en un tubo de ensayo y unas semanas más tarde pudo echar un vistazo a su propio ADN. “Bienvenido a ti mismo”, le decía el mail. Las leyendas familiares tomaron un poso tangible cuando descubrió que, efectivamente, tenía un 4,5% de sangre franco-germana. Que tenía muchas posibilidades de tener la piel blanca y el pelo rubio o castaño. Que no tenía pecas. Que, seguramente, tendría el dedo gordo del pie más largo que el resto. “Y acertó en todo”, comenta sorprendido.

También le dijo que tenía menos de un 1% de ascendencia asquenazí, comunidad judía que se asentó en el centro de Europa en el siglo IX. Esta comunidad, junto a la china, fue el principal objetivo de un grupo de hackers que el pasado mes de septiembre accedió a las bases de datos de 23andMe para robar perfiles genéticos. Pusieron el de Berjillos, y el de otros cuatro millones de usuarios, a la venta en un foro de la deepweb. Se suponía que algunas aseguradoras sanitarias podrían estar interesadas. O algunos tabloides, pues se incluía, con nombres y apellidos, el perfil genético de personajes famosos. Otras informaciones sugerían que la finalidad real era chantajear a la empresa con un daño reputacional.

A Berjillos todo esto le da bastante igual. En Europa hay sanidad pública y total, él ya había compartido sus datos en Forocoches. No cree que el hecho de tener el dedo gordo del pie muy largo sea una información especialmente interesante o que merezca la pena ocultar. En el momento de hablar con EL PAÍS ni siquiera había comprobado en su correo electrónico si le habían robado los datos. “Oye, que sí”, añadirá en un posterior audio. “He comprobado y efectivamente, me mandaron un mail”.

Los datos son el petróleo de la economía digital y en los últimos años, millones de personas han subido los de su ADN a internet, lo que podría suponer un problema. Quizá no para alguien como Berjillos, pero los usuarios con malformaciones genéticas, perfiles públicos o pertenecientes a minorías étnicas en contextos racistas (como los uigures en China o los rohinyás en Birmania) pueden tener más recelos.

Advertisement

La mayoría de clientes de esta tecnología (hasta el 80% en el caso de 23andMe) acceden a que su genoma sea utilizado para investigación médica. Y esto, además de estudios interesantes, reporta pingües beneficios. En 2018, 23andMe llegó a un acuerdo con una de las farmacéuticas más grandes del mundo, GlaxoSmithKline, por más de 300 millones de dólares para el “desarrollo de nuevos medicamentos”. Antes de este trato hubo más de una decena de acuerdos similares. Estos datos suelen estar anonimizados, pero un estudio de la revista Nature, de 2021, alertaba sobre riesgo residual de identificación individual.

“La mayoría de las grandes empresas del sector obtienen beneficios vendiendo los datos genéticos de sus clientes”, señalan en la web de la empresa española 24Genetics. “Nosotros, no”. Su presidente, Nacho Esteban, explica que las leyes europeas son mucho más garantistas que las estadounidenses. “Aquello es el lejano oeste de los datos”, resume. Pero subraya, él también, que es una venta anonimizada, y apunta a que el uso de estos datos con fines científicos puede ser positivo. “Nosotros, por ejemplo, hicimos una investigación sobre la genética y cómo afecta a la covid. Lo hicimos de manera gratuita y nos publicaron en Nature”.

Los datos se conservan en línea para poder actualizarse con los avances científicos que se dan en este campo de forma notable. Y para ir conectando a familiares a medida que estos se hagan un perfil. La cosa empezó como un Facebook de genes, pero poco a poco, está componiendo un puzle del ADN de la humanidad. Y ya hay tantas piezas que muchas veces es posible localizar incluso a las que faltan.

Se calcula que bastaría un registro de perfiles genéticos del 2% de la población adulta de un país para localizar a los parientes de cualquier ciudadano a partir de una muestra de ADN anónima. Según un estudio de JAMA Insights, en 2021 se habían realizado más de 26 millones de pruebas. Tres años más tarde, solo las dos empresas más grandes, 23andMe y Ancestory, superaban de largo esa cifra, llegando a los 33 millones. Los números están creciendo de forma exponencial. “No sabemos cuántos perfiles hay de población española, pero en Estados Unidos, la probabilidad de localizar a alguien es altísima”, señala Antonio Alonso, genetista y director del Instituto Nacional de Toxicología y Ciencias Forenses.

Antonio Alonso, director del Instituto Nacional de Toxicología y Ciencias Forenses, fotografiado en su sede en Madrid. Santi Burgos

Alonso destaca las múltiples implicaciones que esto puede tener. Para empezar, en el campo de la investigación policial, donde será posible encontrar a casi cualquier criminal con una muestra de ADN. En 2018 la policía de Sacramento detuvo, tras más de 40 años, al llamado Golden State Killer, uno de los mayores asesinos y violadores en serie de la historia de Estados Unidos, gracias a los bancos genéticos. Un investigador subió una muestra genética del misterioso asesino a GEDmatch. Así comenzaron a hallar familiares lejanos, hasta que se cerró el círculo sobre Joseph James DeAngelo Jr. El caso dio la vuelta al mundo por la fama de su autor, pero dista mucho de ser único. “Ya llevamos 700 casos investigados con esta técnica, muchos de ellos resueltos”, apunta Alonso. “Sobre todo en EE UU, pero también en Europa”.

Advertisement

Hasta ahora, para estos casos, se utilizaba CODIS, un programa informático (creado por el FBI estadounidense, pero usado en muchos países europeos) que contiene datos de perfiles de ADN de personas condenadas, de pruebas halladas y de personas desaparecidas. Este hace el estudio de unas 20 o 25 regiones del ADN. Pero en los últimos años, con la popularidad de las bases de datos públicas, gestionadas por compañías privadas, se ha abierto una nueva forma de investigación. En estas hay decenas de millones de personas, no unos pocos miles. Y su análisis es mucho más exhaustivo. “Ahí se están analizando, no 20, sino 600 mil regiones del genoma”, destaca Alonso. “Por eso son tan efectivas”.

Son particulares, gente que quiere saber qué tanto por ciento de vikingo tiene su sangre, qué malformaciones genéticas puede desarrollar o si tiene un primo cuarto que vive en Australia. Pero de paso, puede dar la información necesaria para llevar a la cárcel a un familiar. Antes se registraba la posible aguja. Ahora se está registrando todo el pajar, pero con tanto detalle y de forma tan metódica que es posible triangular cualquier aguja. Gracias a las bases de datos de ADN y trabajando con los registros públicos y las redes sociales, se puede llegar a la rama correcta del árbol genealógico correcto, cercando a la persona misteriosa hasta reducir el número de sospechosos a una decena. “Esto no te lleva directamente al criminal, sino a un grupo de familiares de hasta cuarto grado”, explica Alonso. “Entonces hay que investigar, quién es esa persona, las dimensiones geográficas, temporales, la edad tiene este individuo”.

Pero en España, la policía no usa las bases de datos de estas empresas. Lo confirma Begoña Sánchez, comisaria y directora de la Policía Científica a EL PAÍS. “En estos casos se usa CODIS”, añade. Sánchez reconoce que acceder a los enormes registros de las empresas privadas podría ayudar en la resolución de algún caso, pero no es la tecnología, sino la ley la que lo impide. “¿Hasta dónde llega el consentimiento de alguien que sube su perfil genético a estas plataformas?”, se pregunta. Ella intuye la respuesta de un juez, así que ni lo intenta. “No nos vamos a arriesgar a que nos tiren una investigación”, resume tajante. CODIS tiene ciertas limitaciones. Solo menciona el sexo de la persona, cuando la tecnología ya permite hacer una descripción mucho más pormenorizada. “El futuro es este, pero tiene que ir acompañado de una legislación acorde”, resume la comisaria. “Vamos hacia la secuenciación masiva”.

Mar Anes, adoptada, ha conseguido localizar a familia lejana gracias a este tipo de test.
Mar Anes, adoptada, ha conseguido localizar a familia lejana gracias a este tipo de test.

Los archivos se destruyen, los genes no

No solo la policía tiene interés en triangular a una persona desconocida a través de material genético. Alonso está ayudando a montar un Banco estatal de ADN de víctimas de la Guerra Civil y la dictadura. La herramienta ayudará a identificar restos de fosas comunes de asesinados, pero también incluirá los perfiles genéticos de las personas presuntamente afectadas por robos de bebés, aunque hace poco señalaba en este periódico que él no conoce ningún caso.

Este tipo de investigaciones también son bastante habituales en personas adoptadas que buscan sus orígenes. Muchos de ellos se empezaron a hacer los test genéticos hace años, para conocer posibles predisposiciones a desarrollar enfermedades. Pero con el avance de la biotecnología, este procedimiento se ha convertido en una herramienta para localizar a la familia biológica.

“Los archivos pueden destruirse, pero los genes, no. Lo único que no va a desaparecer nunca es el ADN”, señala Beatriz Benéitez, mediadora familiar y presidenta de la asociación La voz de los adoptados. Ella nunca lo ha usado, pero ha acompañado a muchas personas en este camino. “Yo les oriento y les aconsejo siempre que se lo hagan”, confirma. Es lo que hizo con Mar Anes. “Mi intención era encontrar algún familiar directo o alguno que me acercase al mismo objetivo, quizá algún primo lejano”, explica Anes, adoptada —y adoptante— de 52 años, en un intercambio de audios. Le salieron 1.500. Una de las más cercanas era Nelly, una prima cuarta de 80 años. Ahora también es su amiga y hablan casi todos los días. A veces le manda una foto y Nelly le contesta, “tienes los ojos igualitos que esta u otra prima”. Cuando va al médico, le recuerda los antecedentes sanitarios de la familia. Son frases sencillas, pero para Anes significan un mundo. Nadie le había buscado un parecido hasta entonces, nadie le había hablado de unos antecedentes, no solo médicos, sino familiares. “Es muy bonito”, reconoce ella.

Advertisement

Anes sabe por su perfil genético que la mayoría de su familia proviene de León. Pero lamenta que allí los test genéticos no sean muy populares. Por eso no ha conseguido localizar a un familiar más cercano. “Tampoco estoy haciendo una búsqueda activa”, reconoce, “creo que no podría soportar otro rechazo”. Pero cada ciertos meses vuelve a mirar en su perfil en 23andMe para comprobar si hay novedades, si algún nuevo familiar se ha hecho el test. Sabe que es cuestión de tiempo.

Nacho Esteban también lo cree. El empresario confirma que este sector ha crecido enormemente en los últimos años, pero opina que no es una moda sino una tendencia. Y que está lejos de frenarse. “Estas tecnologías cada vez son capaces de leer más datos con mayor precisión y a un coste más bajo”, señala. Esto explica el número creciente de solicitudes a las que están haciendo frente. Los beneficios son muchos y evidentes. Los riesgos pasan por un posible filtrado de datos. O por ayudar a enviar a un familiar lejano (y culpable) a la cárcel. Pero la cuestión es que, aunque usted no esté en uno de estos enormes bancos de datos genéticos, siempre habrá un primo lejano, una tía o un sobrino que sí esté. Su material genético ya está en línea, aunque jamás se haya hecho una prueba.

Puedes seguir a EL PAÍS Salud y Bienestar en Facebook, X e Instagram.

Advertisement
Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.