Tecnología
Carme Artigas: “El progreso tecnológico no puede llevarse por delante derechos fundamentales” | Tecnología
Published
4 semanas agoon

La Presidencia española de la UE ha conferido a la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, la batuta de directora de orquesta en la fase final de las negociaciones del esperado reglamento europeo de la inteligencia artificial (AI Act). La norma ordenará los usos y excepciones de esta tecnología con un enfoque basado en los riesgos que representa para a la ciudadanía cada una de ellas. A mayor riesgo, más medidas de control para la aplicación o hasta su prohibición. Entran en esta última categoría, por el momento, los sistemas de inteligencia artificial (IA) que “manipulen”, los que sirvan para la clasificación social o los de identificación biométrica remotos o en tiempo real.
Las discusiones entre los representantes del Parlamento Europeo, partidario de limitar al máximo las posibles aplicaciones oscuras de la IA; los Estados miembros, que quieren poder recurrir a estas en caso de urgencia, y la Comisión están haciendo de estas negociaciones un trámite lento y delicado. “Confío en que podremos aprobar el reglamento durante esta presidencia [acaba el 31 de diciembre]”, dice la secretaria de Estado.
Nacida en Vilassar de Mar hace 55 años, Artigas fue nombrada hace dos semanas copresidenta de un consejo internacional de expertos de Naciones Unidas encargado de preparar un mecanismo de gobernanza para la IA. Su compañero al frente de ese grupo es James Manyika, vicepresidente de Google, una señal clara de que la industria está muy presente en la discusión. La secretaria de Estado recibe a EL PAÍS antes de volar a Londres a la Cumbre sobre Seguridad de la IA, en la que 28 países, entre ellos EE UU y China, acordaron cooperar para afrontar los riesgos de esta tecnología.
Pregunta. ¿Cuál es su responsabilidad en el nuevo consejo asesor de la ONU?
Respuesta. Nuestro cometido es analizar las oportunidades, los riesgos y el impacto que supone la IA para la sociedad y diseñar un mecanismo de gobernanza internacional para esa tecnología. Es un toque de atención sobre la importancia de regular la IA: esto se tiene que coordinar internacionalmente y se debe involucrar al sur global. Para diciembre tenemos que haber elaborado unas primeras conclusiones, que presentaremos en Nueva York. Creo que es una oportunidad única para influenciar el proceso desde la visión que tenemos en España del humanismo tecnológico y desde el enfoque europeo, basado en la protección de derechos.
P. ¿Cómo cree que debería ser ese mecanismo de gobernanza de la IA?
R. Hay muchos modelos, como el Organismo Internacional de la Energía Atómica o el Grupo Intergubernamental para el Cambio Climático [IPCC por sus siglas en inglés], en el que primero llegas a consensos científicos y después intentas que haya una respuesta de los Estados. Hay que pensar que en torno a la IA hay muchos puntos de vista distintos: la visión que se tiene en China no es la misma que la de Estados Unidos, y esta tampoco es igual a la de Europa. Ahora mismo hay muchos foros internacionales sobre este tema. Es el momento de unificarlos, de sumar fuerzas con la industria.
P. La ONU le ha dado mucha importancia a la crisis climática y, sin embargo, el problema dista de estar solucionado. ¿Por qué tendría que ser distinto con la IA?
R. Justamente he tenido una conversación con el copresidente sobre cómo hacíamos que nuestro trabajo no se quede en una serie de recomendaciones teóricas. Vamos a intentar aprender de las mejores prácticas. El IPCC es un buen punto de partida, pero necesita mejoras. Estamos buscando un mecanismo que no sea tan complejo de mantener como una agencia internacional y que tenga contacto con la Academia, porque la IA está evolucionando muy rápido.
P. ¿Cómo se puede plantear una respuesta coordinada de los países y la industria si sus intereses a menudo colisionan?
R. Estados Unidos tenía su modelo de apoyo sin límites al desarrollo de su industria. China, también. La europea era la tercera vía: creemos que el progreso tecnológico no puede llevarse por delante derechos fundamentales. Al principio nadie nos hacía caso, pero la emergencia de ChatGPT ha permitido que en otras latitudes y en la propia industria se empezasen a dar cuenta de que esta tecnología, en manos de los malos, puede tener efectos negativos. EE UU acaba de anunciar su orden ejecutiva. En Europa, pensamos que tenemos que ir más allá, queremos que la propia tecnología sea más transparente, más justa. En China, contra lo que se pueda pensar, están muy preocupados en poner límites, por ejemplo, a los deepfakes. Algunos no han tomado conciencia hasta 2023. Otros ya veníamos trabajando en ellos desde 2020. Justamente por eso, ahora es el momento en sumar esas visiones.
P. ¿El reglamento de IA es la forma de abordar este problema?
R. Estamos convencidos de que sí. Nadie está planteando como nosotros un enfoque basado en el impacto de esta tecnología en los derechos fundamentales, en los usos prohibidos de la IA. Más que poner en marcha un reglamento o un estándar legal o técnico, estamos desarrollando un estándar moral. Le decimos al mundo lo que va a ser aceptable o no hacer con la IA. Por ejemplo, tengo que saber si algo está generado por IA generativa.
P. ¿Han acordado ya qué casos serán los prohibidos y cuáles de alto riesgo?
R. Ese es quizás el punto más importante del debate que estamos teniendo. Debemos decidir qué requisitos le pedimos a los sistemas de alto riesgo [los que están permitidos pero muy limitados] y qué requisitos de transparencia le pedimos a los modelos fundacionales [en los que se apoya la IA generativa, como ChatGPT]. El Parlamento Europeo ha querido ampliar el control de la norma también hasta la IA generativa, algo que inicialmente no estaba previsto. No regulamos tecnologías, sino casos de uso. Un martillo puede clavar un clavo o matar a alguien. De lo que hay que asegurarse es de que si pasa lo segundo, el responsable vaya a la cárcel.
P. Al ocupar la Presidencia de la UE, España está dirigiendo las negociaciones entre Comisión, Consejo y Parlamento. ¿Marchan bien?
R. Estamos acercando muchas posiciones. Hemos definido muy bien lo que son los sistemas de alto riesgo y empezamos a trabajar en este debate sobre qué son los usos prohibidos. El Parlamento dio una lista que nosotros vemos excesiva y que en algunos casos podrían ir en contra de la seguridad nacional de los estados. Estamos ahora definiendo qué garantías extraordinarias establecemos para que no pueda existir, por ejemplo, un abuso de poder por parte de un estado en la utilización de esas tecnologías. Tenemos que poner límites, pero a la vez favorecer y no ahuyentar la innovación, y ese equilibrio es difícil. Creo que lograremos aprobar la normativa durante la Presidencia española.
P. ¿Qué escollos hay ahora mismo, más allá de los usos prohibidos?
R. Hay una serie de empleos prohibidos consensuados, como el scrapping [extracción de datos] de imágenes tomadas por cámaras de vigilancia o los sistemas de calificación de crédito social. Estamos viendo si encontramos el punto adecuado en el reconocimiento biométrico, exceptuando algunos casos, como su utilización en la investigación de ciertos crímenes graves. Nadie quiere que haya un abuso de esas técnicas por parte de la policía o de los gobiernos. Si hacemos esto, tenemos que ofrecer garantías extras de control. Este es ahora el centro del debate, pero no podemos revelar cuál es la solución que estamos buscando. Se está trabajando a nivel jurídico, técnico y político. La apuesta es muy alta porque nunca se había hecho en el mundo una regulación así.
P. La tecnología cambia muy rápido, como se ha visto con la irrupción de ChatGPT. ¿Cómo harán para que el reglamento no quede obsoleto?
R. La clave de este reglamento será que supere la prueba del tiempo. Para eso, debe poder actualizarse. Estamos viendo, por ejemplo, cómo hacer para que los casos de uso de riesgo se puedan actualizar fácilmente. Habrá un mecanismo de coordinación europeo de las agencias nacionales de la inteligencia artificial que velará por ello.
P. ¿Sigue en contra de que haya una moratoria en la investigación de IA?
R. La carta [en la que centenares de expertos solicitaron en marzo una pausa de seis meses en la investigación de esta tecnología] fue un toque de atención de la comunidad científica: cuidado, que aquí estamos desarrollando algo sin saber su impacto real. Situaba los daños irreparables a muy largo plazo, cuando nosotros pensamos que los estamos sufriendo ya: las propias fake news, la suplantación de identidad con los deepfakes, la posibilidad de sesgos, de discriminación… Antes de hablar de problemas existenciales de la humanidad hay que atajar lo que pasa hoy. Es imposible parar la innovación; lo que hay que hacer es asegurarse de que ese progreso va en la buena dirección. La innovación debe acelerarse para que la propia industria encuentre la manera de resolver los problemas que ella misma ha creado.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
_
You may like
Tecnología
La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología
Published
1 hora agoon
5 de diciembre de 2023
¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
España, que cederá el testigo de la presidencia a final de mes a Bélgica y que ha puesto entre sus principales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus siglas en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes a partir de la observación de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como “modelos fundacionales de riesgo sistémico”: es decir, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, dice el plan.
Los códigos de conducta también incluirían obligaciones en materia de transparencia para “todos” los modelos fundacionales, de acuerdo con la última posición negociadora, que plantea otros elementos, como que las compañías informen de su consumo energético. Para todos los modelos fundacionales, se establecerían además algunas “obligaciones horizontales”. Pero, además, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es necesario, especificar más los elementos técnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos capítulos normativos, según fuentes comunitarias.
La propuesta española plantea también la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que proporcionaría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además, satisfacer los reclamos de la Eurocámara, que había solicitado la construcción de algún tipo de organismo especializado.
Las propuestas para terminar de hilvanar la directiva se debatirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita decisiva. Es una de las últimas oportunidades de que salga adelante. Las negociaciones están ya muy “avanzadas” e incluso existiría ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pirámide de riesgo y en el principio, mantenido por la presidencia española en su última propuesta, de que el enfoque es “tecnológicamente neutro”, es decir, no regular tecnologías concretas, sino sus usos finales mediante la creación de diversas categorías de riesgo, como proponía la Eurocámara.
España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, señala la secretaria de Estado de Digitalización, Carme Artigas a EL PAÍS. Artigas cree en la responsabilidad de la UE de ir más allá, para los usos de alto riesgo, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder acotar los riesgos que ya muestra esta tecnología innovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, señala Artigas.
El problema, no obstante, es que siguen abiertos —y probablemente lo seguirán hasta que los negociadores vuelvan a verse cara a cara en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los denominados de “riesgo sistémico”. Un debate alimentado por los últimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, amenazaba a la humanidad antes del despido de Altman.
La tensión es máxima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulación de las compañías que desarrollan estos sistemas, mediante sendos códigos de conducta, que, eso sí, que serían obligatorios. Los tres países han enviado al resto de Estados miembros un documento de posición en el que defienden la autorregulación para la IA de propósito general, piden un “enfoque equilibrado favorable a la innovación” basado en el riesgo de la IA y que “reduzca las cargas administrativas innecesarias” para las empresas que, dicen, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la transparencia y abogan por el diálogo.
Sin embargo, la vía que transita esa propuesta de tres de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a París, Berlín, Roma y Madrid, adelantada por EL PAÍS, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos códigos de conducta y más normas.
“La autorregulación no es suficiente”, sostiene también Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le gustaría que la hipotética y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre los que prefieren la autorregulación y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitiría un grado alto de autorregulación, pero supervisada en último término por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que realizaría esta oficina.
Es la postura también de los negociadores de la Eurocámara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnologías con un potencial intrusivo a veces inimaginable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, subraya por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los denominados trílogos, que alumbran el verdadero texto legal).
Entre las obligaciones que los legisladores europeos consideran “cruciales” y que deberían estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficiencia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.
Lo que parece ya más resuelto es la cuestión, muy importante para la Eurocámara, de prohibir o restringir al máximo lo que denomina los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.
Tecnología
El puzle genético de la humanidad se está completando en internet: estos son los riesgos que conlleva terminarlo | Salud y bienestar
Published
2 horas agoon
5 de diciembre de 2023
Cuando era pequeño, Adriano Berjillos escuchaba a su padre relatar historias familiares. Sabía que tenía un antepasado, de esos cuyo grado de parentesco se mide en “tataras”, que provenía de Alemania. De ahí había sacado él su piel blanca y su pelo rubio, le decía. 30 años más tarde, se lo repitió un email de 23andMe. Berjillos pagó unos 100 euros, escupió en un tubo de ensayo y unas semanas más tarde pudo echar un vistazo a su propio ADN. “Bienvenido a ti mismo”, le decía el mail. Las leyendas familiares tomaron un poso tangible cuando descubrió que, efectivamente, tenía un 4,5% de sangre franco-germana. Que tenía muchas posibilidades de tener la piel blanca y el pelo rubio o castaño. Que no tenía pecas. Que, seguramente, tendría el dedo gordo del pie más largo que el resto. “Y acertó en todo”, comenta sorprendido.
También le dijo que tenía menos de un 1% de ascendencia asquenazí, comunidad judía que se asentó en el centro de Europa en el siglo IX. Esta comunidad, junto a la china, fue el principal objetivo de un grupo de hackers que el pasado mes de septiembre accedió a las bases de datos de 23andMe para robar perfiles genéticos. Pusieron el de Berjillos, y el de otros cuatro millones de usuarios, a la venta en un foro de la deepweb. Se suponía que algunas aseguradoras sanitarias podrían estar interesadas. O algunos tabloides, pues se incluía, con nombres y apellidos, el perfil genético de personajes famosos. Otras informaciones sugerían que la finalidad real era chantajear a la empresa con un daño reputacional.
A Berjillos todo esto le da bastante igual. En Europa hay sanidad pública y total, él ya había compartido sus datos en Forocoches. No cree que el hecho de tener el dedo gordo del pie muy largo sea una información especialmente interesante o que merezca la pena ocultar. En el momento de hablar con EL PAÍS ni siquiera había comprobado en su correo electrónico si le habían robado los datos. “Oye, que sí”, añadirá en un posterior audio. “He comprobado y efectivamente, me mandaron un mail”.
Los datos son el petróleo de la economía digital y en los últimos años, millones de personas han subido los de su ADN a internet, lo que podría suponer un problema. Quizá no para alguien como Berjillos, pero los usuarios con malformaciones genéticas, perfiles públicos o pertenecientes a minorías étnicas en contextos racistas (como los uigures en China o los rohinyás en Birmania) pueden tener más recelos.
La mayoría de clientes de esta tecnología (hasta el 80% en el caso de 23andMe) acceden a que su genoma sea utilizado para investigación médica. Y esto, además de estudios interesantes, reporta pingües beneficios. En 2018, 23andMe llegó a un acuerdo con una de las farmacéuticas más grandes del mundo, GlaxoSmithKline, por más de 300 millones de dólares para el “desarrollo de nuevos medicamentos”. Antes de este trato hubo más de una decena de acuerdos similares. Estos datos suelen estar anonimizados, pero un estudio de la revista Nature, de 2021, alertaba sobre riesgo residual de identificación individual.
“La mayoría de las grandes empresas del sector obtienen beneficios vendiendo los datos genéticos de sus clientes”, señalan en la web de la empresa española 24Genetics. “Nosotros, no”. Su presidente, Nacho Esteban, explica que las leyes europeas son mucho más garantistas que las estadounidenses. “Aquello es el lejano oeste de los datos”, resume. Pero subraya, él también, que es una venta anonimizada, y apunta a que el uso de estos datos con fines científicos puede ser positivo. “Nosotros, por ejemplo, hicimos una investigación sobre la genética y cómo afecta a la covid. Lo hicimos de manera gratuita y nos publicaron en Nature”.
Los datos se conservan en línea para poder actualizarse con los avances científicos que se dan en este campo de forma notable. Y para ir conectando a familiares a medida que estos se hagan un perfil. La cosa empezó como un Facebook de genes, pero poco a poco, está componiendo un puzle del ADN de la humanidad. Y ya hay tantas piezas que muchas veces es posible localizar incluso a las que faltan.
Se calcula que bastaría un registro de perfiles genéticos del 2% de la población adulta de un país para localizar a los parientes de cualquier ciudadano a partir de una muestra de ADN anónima. Según un estudio de JAMA Insights, en 2021 se habían realizado más de 26 millones de pruebas. Tres años más tarde, solo las dos empresas más grandes, 23andMe y Ancestory, superaban de largo esa cifra, llegando a los 33 millones. Los números están creciendo de forma exponencial. “No sabemos cuántos perfiles hay de población española, pero en Estados Unidos, la probabilidad de localizar a alguien es altísima”, señala Antonio Alonso, genetista y director del Instituto Nacional de Toxicología y Ciencias Forenses.
Alonso destaca las múltiples implicaciones que esto puede tener. Para empezar, en el campo de la investigación policial, donde será posible encontrar a casi cualquier criminal con una muestra de ADN. En 2018 la policía de Sacramento detuvo, tras más de 40 años, al llamado Golden State Killer, uno de los mayores asesinos y violadores en serie de la historia de Estados Unidos, gracias a los bancos genéticos. Un investigador subió una muestra genética del misterioso asesino a GEDmatch. Así comenzaron a hallar familiares lejanos, hasta que se cerró el círculo sobre Joseph James DeAngelo Jr. El caso dio la vuelta al mundo por la fama de su autor, pero dista mucho de ser único. “Ya llevamos 700 casos investigados con esta técnica, muchos de ellos resueltos”, apunta Alonso. “Sobre todo en EE UU, pero también en Europa”.
Hasta ahora, para estos casos, se utilizaba CODIS, un programa informático (creado por el FBI estadounidense, pero usado en muchos países europeos) que contiene datos de perfiles de ADN de personas condenadas, de pruebas halladas y de personas desaparecidas. Este hace el estudio de unas 20 o 25 regiones del ADN. Pero en los últimos años, con la popularidad de las bases de datos públicas, gestionadas por compañías privadas, se ha abierto una nueva forma de investigación. En estas hay decenas de millones de personas, no unos pocos miles. Y su análisis es mucho más exhaustivo. “Ahí se están analizando, no 20, sino 600 mil regiones del genoma”, destaca Alonso. “Por eso son tan efectivas”.
Son particulares, gente que quiere saber qué tanto por ciento de vikingo tiene su sangre, qué malformaciones genéticas puede desarrollar o si tiene un primo cuarto que vive en Australia. Pero de paso, puede dar la información necesaria para llevar a la cárcel a un familiar. Antes se registraba la posible aguja. Ahora se está registrando todo el pajar, pero con tanto detalle y de forma tan metódica que es posible triangular cualquier aguja. Gracias a las bases de datos de ADN y trabajando con los registros públicos y las redes sociales, se puede llegar a la rama correcta del árbol genealógico correcto, cercando a la persona misteriosa hasta reducir el número de sospechosos a una decena. “Esto no te lleva directamente al criminal, sino a un grupo de familiares de hasta cuarto grado”, explica Alonso. “Entonces hay que investigar, quién es esa persona, las dimensiones geográficas, temporales, la edad tiene este individuo”.
Pero en España, la policía no usa las bases de datos de estas empresas. Lo confirma Begoña Sánchez, comisaria y directora de la Policía Científica a EL PAÍS. “En estos casos se usa CODIS”, añade. Sánchez reconoce que acceder a los enormes registros de las empresas privadas podría ayudar en la resolución de algún caso, pero no es la tecnología, sino la ley la que lo impide. “¿Hasta dónde llega el consentimiento de alguien que sube su perfil genético a estas plataformas?”, se pregunta. Ella intuye la respuesta de un juez, así que ni lo intenta. “No nos vamos a arriesgar a que nos tiren una investigación”, resume tajante. CODIS tiene ciertas limitaciones. Solo menciona el sexo de la persona, cuando la tecnología ya permite hacer una descripción mucho más pormenorizada. “El futuro es este, pero tiene que ir acompañado de una legislación acorde”, resume la comisaria. “Vamos hacia la secuenciación masiva”.
Los archivos se destruyen, los genes no
No solo la policía tiene interés en triangular a una persona desconocida a través de material genético. Alonso está ayudando a montar un Banco estatal de ADN de víctimas de la Guerra Civil y la dictadura. La herramienta ayudará a identificar restos de fosas comunes de asesinados, pero también incluirá los perfiles genéticos de las personas presuntamente afectadas por robos de bebés, aunque hace poco señalaba en este periódico que él no conoce ningún caso.
Este tipo de investigaciones también son bastante habituales en personas adoptadas que buscan sus orígenes. Muchos de ellos se empezaron a hacer los test genéticos hace años, para conocer posibles predisposiciones a desarrollar enfermedades. Pero con el avance de la biotecnología, este procedimiento se ha convertido en una herramienta para localizar a la familia biológica.
“Los archivos pueden destruirse, pero los genes, no. Lo único que no va a desaparecer nunca es el ADN”, señala Beatriz Benéitez, mediadora familiar y presidenta de la asociación La voz de los adoptados. Ella nunca lo ha usado, pero ha acompañado a muchas personas en este camino. “Yo les oriento y les aconsejo siempre que se lo hagan”, confirma. Es lo que hizo con Mar Anes. “Mi intención era encontrar algún familiar directo o alguno que me acercase al mismo objetivo, quizá algún primo lejano”, explica Anes, adoptada —y adoptante— de 52 años, en un intercambio de audios. Le salieron 1.500. Una de las más cercanas era Nelly, una prima cuarta de 80 años. Ahora también es su amiga y hablan casi todos los días. A veces le manda una foto y Nelly le contesta, “tienes los ojos igualitos que esta u otra prima”. Cuando va al médico, le recuerda los antecedentes sanitarios de la familia. Son frases sencillas, pero para Anes significan un mundo. Nadie le había buscado un parecido hasta entonces, nadie le había hablado de unos antecedentes, no solo médicos, sino familiares. “Es muy bonito”, reconoce ella.
Anes sabe por su perfil genético que la mayoría de su familia proviene de León. Pero lamenta que allí los test genéticos no sean muy populares. Por eso no ha conseguido localizar a un familiar más cercano. “Tampoco estoy haciendo una búsqueda activa”, reconoce, “creo que no podría soportar otro rechazo”. Pero cada ciertos meses vuelve a mirar en su perfil en 23andMe para comprobar si hay novedades, si algún nuevo familiar se ha hecho el test. Sabe que es cuestión de tiempo.
Nacho Esteban también lo cree. El empresario confirma que este sector ha crecido enormemente en los últimos años, pero opina que no es una moda sino una tendencia. Y que está lejos de frenarse. “Estas tecnologías cada vez son capaces de leer más datos con mayor precisión y a un coste más bajo”, señala. Esto explica el número creciente de solicitudes a las que están haciendo frente. Los beneficios son muchos y evidentes. Los riesgos pasan por un posible filtrado de datos. O por ayudar a enviar a un familiar lejano (y culpable) a la cárcel. Pero la cuestión es que, aunque usted no esté en uno de estos enormes bancos de datos genéticos, siempre habrá un primo lejano, una tía o un sobrino que sí esté. Su material genético ya está en línea, aunque jamás se haya hecho una prueba.
Puedes seguir a EL PAÍS Salud y Bienestar en Facebook, X e Instagram.
Tecnología
IBM anuncia el comienzo de la “era de la utilidad cuántica” y anticipa un superordenador en 2033 | Tecnología
Published
18 horas agoon
4 de diciembre de 2023
La computación cuántica no es solo cuestión de cúbits, la unidad básica de información. La clave para esta tecnología es la conjunción de sistemas que permitan construir un ordenador útil y tolerante a los fallos. La multinacional IBM ha anunciado este lunes un paso fundamental en este sentido al presentar tres avances: un procesador de 1.121 cúbits denominado Cóndor (el mayor conocido); Heron, un chip de 133 cúbits desarrollado para su interconexión y basado en una arquitectura conocida como “tunable coupler”; y un nuevo System Two, un sistema modular y flexible para combinaciones múltiples de estos procesadores con enlaces de comunicación cuántica y clásica. Estos avances, unidos a las nuevas fórmulas de mitigación y corrección de errores, anticipan lo que Darío Gil, vicepresidente de IBM y director de la división de investigación (IBM Research), califica como “la nueva era de utilidad cuántica”, que podría desembocar, según sus previsiones, en un superordenador básicamente cuántico, pero con sistemas clásicos y con corrección modular de errores en 2033.
Los últimos desarrollos de IBM han hecho saltar por los aires la propia hoja de ruta de la multinacional, que ha cumplido hasta ahora con precisión matemática, para llegar más lejos y antes de lo previsto al “desbloqueo de todo el poder de la computación cuántica”, según la nueva senda tecnológica presentada este lunes.
Superar los errores, en palabras de Jian-Wei Pan, físico de la Universidad de Ciencia y Tecnología de China, “es uno de los grandes desafíos para el ser humano”. Los fallos se generan por cualquier interacción con el medio ambiente (ruido, ondas o temperatura, por ejemplo) y provocan que la superposición de estados (la propiedad física que permite a una partícula estar en una posición A y B al mismo tiempo) se degrade hasta hacerla inútil. Esa superposición es lo que permite una capacidad exponencial de la computación cuántica frente a la binaria clásica, que se limita al 0 o 1 del bit. De esta forma, si dos bits pueden almacenar un número, dos cúbits almacenan cuatro y diez cúbits pueden tener 1.024 estados simultáneos.
Para llegar a esa meta de sistemas útiles y tolerantes, IBM cree haber dado con las puertas que lo pueden permitir y que se fundamentan en avances de los procesadores, en los sistemas de interconexión de estos para permitir una computación robusta y en la mitigación y corrección de errores.
El aumento de capacidad singular lo ha conseguido IBM otra vez. “El Cóndor vuela”, bromea Gil ante el hito del nuevo procesador cuántico que sucede al Osprey, presentado el pasado año con 433 cúbits, capaz de representar un número de estados superior a la cantidad de átomos en el universo observable. Pero casi triplicar la capacidad del procesador no es lo único alcanzado. “Muchas cosas han pasado este año simultáneamente”, explica Gil.
El principal logro es que IBM considera que ya no es imprescindible continuar aumentado la capacidad de un procesador único, sino que se puede alcanzar la computación cuántica práctica con otro método. “Vamos a hacerlo a través de modularidad, con muchos chips conectados unos con otros de tal manera que podamos crear el superordenador”, asegura Gil.

Estos chips, que serían como las piezas de un juego de construcción, son ahora los IBM Quantum Heron de 133 cúbits, creados a partir de una nueva arquitectura denominada tunable coupler. Esta ingeniería permite plataformas de información cuántica de mayor tamaño y funcionalidad. “Heron puede combinarse modularmente e incorporar la comunicación clásica para acelerar los flujos de trabajo. Con el tunable coupler podemos ajustar la frecuencia de los cúbits y conseguir un procesador mucho mejor que el anterior”, explica Gil. Esta arquitectura se complementa con los 4K cryo-CMOS, controladores de estado de cúbits semiautónomos, de baja potencia y “del tamaño de una uña”.
“Heron es nuestro mejor procesador cuántico en cuanto a rendimiento hasta la fecha. Supone una mejora de hasta cinco veces con respecto al dispositivo insignia: el Eagle”, añade Matthias Steffen, jefe de arquitectura cuántica de la compañía y de tecnologías de procesadores.
La base de la interconexión de los chips Heron es la nueva generación del System Two, el sistema diseñado para combinar de forma modular y flexible múltiples procesadores en un solo sistema con enlaces de comunicación. Esta red es el componente básico de la supercomputación cuántica, ya que permite escalar el potencial computacional sin tener que progresar indefinidamente en la capacidad singular de un solo procesador.
“El System Two permitirá nuevas generaciones de procesadores centrados en tecnología cuántica, con una infraestructura central totalmente escalable y modular que permitirá ejecutar circuitos como nunca”, asegura Steffen.
El nuevo modelo ha llevado a repensar los próximos desarrollos. Gil afirma que “todas las generaciones siguientes van a estar basados en él”. “Estamos convencidos de que no necesitamos aumentar más el número de cúbits por unidad de procesador. El futuro va a ser cientos y miles de procesadores, cada uno más pequeño de 1.000 cúbits, conectados entre sí”, asegura.
El elemento clave que abrió las puertas de esta nueva senda fue la investigación publicada en Nature y que demostró que un procesador de IBM de solo 127 cúbits es capaz de medir valores esperados en operaciones de física más allá de las capacidades de los mejores métodos computacionales clásicos actuales. “Nos permite entrar en la era que hemos denominado de la utilidad cuántica, en la que ya se pueden hacer cálculos de una manera mucho más eficiente y robusta de lo que se puede hacer con cualquier tipo de simulador o con cualquier tipo de computación clásica”, asegura Gil.
Katie Pizzolato, responsable de algoritmos cuánticos y socios científicos de la compañía, cree que se trata de un momento disruptivo: “Fue la primera vez que una computadora cuántica produjo valores precisos a una escala que estaba fuera del alcance de la computación clásica de fuerza bruta y la respuesta desde entonces ha sido exactamente lo que esperábamos; desde este artículo hemos visto a muchas personas publicando investigaciones que usan la cuántica como una herramienta”.
Ya no se trata solo del Qiskit, un entorno de sistemas clásicos y cuánticos que permite llevar a la programación las soluciones frente al ruido y facilitar a los usuarios que incorporen la computación más avanzada. “Ahora hemos roto la barrera de los más de 100 cúbits con suficiente calidad”, resalta el directivo español en referencia a la investigación de Nature. Y anuncia: “Combinados con la mitigación de errores, van a permitir una explosión científica”.
Jay Gambetta, vicepresidente de IBM Quantum, destaca que ese desarrollo de programas se verá favorecido por la inteligencia artificial: “Todo el poder de la computación cuántica será impulsado por la IA generativa, que simplificará la experiencia del desarrollador”.
“Hay muchos problemas que afrontar y la naturaleza sabe cómo, pero no nos lo dice”, resume Stefan Woerner, director de Ciencia Computacional Cuántica en la sede de IBM en Zúrich (Suiza). El científico afirma que el objetivo final es llegar a una computación cuántica fundamentada en tres criterios: que sea más eficiente, barata y precisa. El modelo demostrado en Nature, según afirma, ha sido “crucial” para avanzar en esta senda.
“Será muy extraño que cualquier plataforma importante en la nube no tenga computación cuántica en 2030. Esta va a ser más impactante que la inteligencia artificial y los actuales supercomputadores”, cree Christian Weedbrook, director de Xanadu Quantum Technologies. “La computación cuántica cambiará las relaciones entre la gente, la tecnología y el trabajo”, añade Soney Trent, fundador y presidente de la también empresa tecnológica Bulls Run Group.
Las investigaciones cuánticas continúan y todas contribuyen al desarrollo de esta tecnología. Investigadores del Laboratorio Nacional Argonne del Departamento de Energía de los Estados Unidos (DOE), la Universidad de Chicago y la Universidad de Cambridge ha creado a partir del diamante cúbits más controlables y que pueden operar con equipos y gastos significativamente reducidos, según han publicado en Physical Review X. “Nuestra técnica permite elevar drásticamente la temperatura de funcionamiento de estos sistemas y reduce mucho los recursos para operarlos”, afirma Alex High, profesor asistente de la Escuela de Ingeniería Molecular Pritzker de la Universidad de California, cuyo laboratorio dirigió el estudio.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
_

Take That are coming to Spain! Legendary British boy band will perform in Marbella and three other cities – but will Robbie be joining them?

La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología

WATCH: Meryl Streep, 74, stuns Spain’s Royal Family with emotional speech praising Spanish greats including Lorca and Picasso – before becoming emotional as King Felipe brands her ‘majestic’

¿Qué significa Intercalar al imprimir? Por qué es útil

Jeremy Clarkson finalmente se reúne con Richard Hammond y James May para filmar el Grand Tour

Los recién casados Sofia Richie y Elliot Grainge hacen su debut en la alfombra roja como pareja casada
Tendencias
-
Tendencias7 meses ago
¿Qué significa Intercalar al imprimir? Por qué es útil
-
Espectaculos7 meses ago
Jeremy Clarkson finalmente se reúne con Richard Hammond y James May para filmar el Grand Tour
-
Espectaculos7 meses ago
Los recién casados Sofia Richie y Elliot Grainge hacen su debut en la alfombra roja como pareja casada
-
Tendencias7 meses ago
TikToker cree que su monitor de bebé fue pirateado
-
Tendencias9 meses ago
¿Qué significa Side-Eye en TikTok? Detalles sobre la tendencia viral
-
Espectaculos3 meses ago
Kanye West’s wife Bianca Censori faces ‘public indecency arrest’ threat | Celebrity News | Showbiz & TV
-
Espectaculos5 meses ago
Kylie Jenner se ve deslumbrante con una blusa sin tirantes mientras usa sus ‘elementos básicos de verano’ de Kylie Cosmetics
-
Espectaculos6 meses ago
La estrella de 1000-Lb Sisters, Tammy Slaton, muestra una pérdida de peso dramática sin soporte de oxígeno