Connect with us

Tecnología

BitGate ahora ofrece liquidación fuera de bolsa a sus clientes institucionales

Published

on

Hechos importantes:
  • BitGate es el sexto intercambio que se integra con Copper y se une a la red ClearLoop.

  • Con esta medida, la bolsa busca fortalecer la confianza en el mercado de activos digitales.

BitGate, una de las plataformas líderes de comercio de copias y comercio de derivados criptográficos, ha anunciado que se asociará con el proveedor líder de custodia de activos digitales, Copper, para ofrecer soluciones de liquidación fuera del mercado. Esto permite a los clientes institucionales negociar y liquidar entre bolsas casi en tiempo real, reduciendo el riesgo de contraparte y aumentando la eficiencia del capital.

Bitgate se convertirá este año Sexto intercambio principal en integrarse con Copper y únase a la red Clear Loop. La integración de ClearLoop permite a los usuarios institucionales de ambas empresas mantener activos dentro de la infraestructura de Copper, así como delegar esos activos para negociar en BitGate.

Los activos del cliente se depositan en la plataforma de cobre y luego se vinculan a la cuenta de BitGate. La cuenta de BitGate refleja este saldo al instante y le permite operar activamente con más de 450 divisas y 580 pares comerciales. La diferencia de saldo entre las dos cuentas se concilia automáticamente a través de la API.

“Permitir que los clientes operen directamente en los intercambios desde la plataforma de custodia de Copper es un paso importante para institucionalizar los mercados de activos digitales. Estamos entusiasmados de asociarnos con BitGate y ofrecer liquidación fuera de bolsa para sus clientes institucionales. Además, esperamos nuestro compromiso compartido de proteger los activos y establecer altos estándares para la industria de las criptomonedas.

El director ejecutivo de cobre, Dmitry Tokarev.

Advertisement

Una solución BitGate inteligente para sus clientes institucionales

Para hacer frente al riesgo de quiebra de los participantes de ClearLoop, Copper ha establecido una nueva estructura de cuenta dedicada a ClearLoop, sobre la cual se ha creado un fideicomiso de derecho inglés. Copper ha sido designado como Fideicomisario de las Garantías y tiene la custodia de los activos en nombre de los beneficiarios.

El cliente y la bolsa proporcionan garantía sobre sus activos dentro del fideicomiso a favor de los demás. Dentro del fideicomiso, el intercambio proporciona garantías para facilitar la liquidación en función de un cronograma de liquidación predeterminado.

El equipo de riesgo financiero de Copper monitorea las garantías las 24 horas del día, los 7 días de la semana, asegurando que tanto los clientes como la bolsa cumplan con las obligaciones de liquidación. Si Copper se declara insolvente, los criptoactivos del fideicomiso no formarán parte del patrimonio de la insolvencia de Copper.

Bitget fomenta la adopción institucional de criptomonedas

BitGate perfecciona constantemente sus productos y servicios para desarrollar una plataforma comercial robusta y versátil para varios grupos de usuarios. ¿Objetivo? Anime a las personas a adoptar criptomonedas y encuentre formas más inteligentes de intercambiarlas.

Además, la Bolsa ha tomado medidas fortalecer la fe en Mercado de criptomonedas volátil. Esto incluye un Fondo de Seguridad del Usuario de $300 millones y actualizaciones mensuales de su Prueba de Reserva (PoR).

Advertisement

“Los criptoinversionistas institucionales están buscando formas de proteger sus activos y optimizar el comercio. La asociación de BitGate con Copper es un ejemplo de nuestros esfuerzos continuos para aumentar la confianza entre los criptousuarios institucionales. ClearLoop y su innovadora documentación fiduciaria satisfacen estas demandas y, por lo tanto, contribuyen a la madurez del ecosistema Esperamos continuar nuestra colaboración con el equipo de cobre a medida que ampliamos nuestra oferta institucional.

Gracie Chen, directora ejecutiva de BitGate.

Acerca de Bitget

Bitget, fundada en 2018, es una Intercambio líder mundial de criptomonedas, Tiene servicios de negociación futura y copia comercial como sus características clave.

BitGate Exchange sirve a más de 8 millones de usuarios en más de 100 países y territorios. Ofrece una solución comercial completa y segura que refleja su compromiso de ayudar a los usuarios a operar de manera inteligente.

También motiva a las personas a abrazar el mundo de las criptomonedas a través de la colaboración con socios confiables. Esto incluye a la leyenda del fútbol argentino Lionel Messi, el principal equipo de fútbol de Italia, la Juventus, y PGL, el organizador oficial de eventos de eSports. Según Coinco, BitGate es actualmente una de las 5 mejores plataformas de negociación de futuros Y una de las 10 mejores plataformas de comercio al contado.

Para obtener más información, visite: Sitio web | Gorjeo , Telegrama | LinkedIn | discordia

Advertisement

Descargo de responsabilidad: El contenido y los enlaces proporcionados en este artículo son solo para fines informativos. CriptoNoticias no proporciona recomendaciones o consejos legales, financieros o de inversión, ni sustituye la debida diligencia de cada parte interesada. CriptoNoticias no respalda ninguna inversión u oferta similar promocionada aquí. Haga clic aquí para más información.

Advertisement
Continue Reading
Advertisement

Tecnología

La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología

Published

on

¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.

España, que cederá el testigo de la presidencia a final de mes a Bélgica y que ha puesto entre sus principales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus siglas en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes a partir de la observación de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como “modelos fundacionales de riesgo sistémico”: es decir, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, dice el plan.

Los códigos de conducta también incluirían obligaciones en materia de transparencia para “todos” los modelos fundacionales, de acuerdo con la última posición negociadora, que plantea otros elementos, como que las compañías informen de su consumo energético. Para todos los modelos fundacionales, se establecerían además algunas “obligaciones horizontales”. Pero, además, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es necesario, especificar más los elementos técnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos capítulos normativos, según fuentes comunitarias.

Advertisement

La propuesta española plantea también la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que proporcionaría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además, satisfacer los reclamos de la Eurocámara, que había solicitado la construcción de algún tipo de organismo especializado.

Las propuestas para terminar de hilvanar la directiva se debatirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita decisiva. Es una de las últimas oportunidades de que salga adelante. Las negociaciones están ya muy “avanzadas” e incluso existiría ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pirámide de riesgo y en el principio, mantenido por la presidencia española en su última propuesta, de que el enfoque es “tecnológicamente neutro”, es decir, no regular tecnologías concretas, sino sus usos finales mediante la creación de diversas categorías de riesgo, como proponía la Eurocámara.

España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, señala la secretaria de Estado de Digitalización, Carme Artigas a EL PAÍS. Artigas cree en la responsabilidad de la UE de ir más allá, para los usos de alto riesgo, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder acotar los riesgos que ya muestra esta tecnología innovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, señala Artigas.

El problema, no obstante, es que siguen abiertos —y probablemente lo seguirán hasta que los negociadores vuelvan a verse cara a cara en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los denominados de “riesgo sistémico”. Un debate alimentado por los últimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, amenazaba a la humanidad antes del despido de Altman.

La tensión es máxima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulación de las compañías que desarrollan estos sistemas, mediante sendos códigos de conducta, que, eso sí, que serían obligatorios. Los tres países han enviado al resto de Estados miembros un documento de posición en el que defienden la autorregulación para la IA de propósito general, piden un “enfoque equilibrado favorable a la innovación” basado en el riesgo de la IA y que “reduzca las cargas administrativas innecesarias” para las empresas que, dicen, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la transparencia y abogan por el diálogo.

Advertisement

Sin embargo, la vía que transita esa propuesta de tres de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a París, Berlín, Roma y Madrid, adelantada por EL PAÍS, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos códigos de conducta y más normas.

“La autorregulación no es suficiente”, sostiene también Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le gustaría que la hipotética y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre los que prefieren la autorregulación y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitiría un grado alto de autorregulación, pero supervisada en último término por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que realizaría esta oficina.

Es la postura también de los negociadores de la Eurocámara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnologías con un potencial intrusivo a veces inimaginable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, subraya por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los denominados trílogos, que alumbran el verdadero texto legal).

Entre las obligaciones que los legisladores europeos consideran “cruciales” y que deberían estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficiencia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.

Lo que parece ya más resuelto es la cuestión, muy importante para la Eurocámara, de prohibir o restringir al máximo lo que denomina los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Continue Reading

Tecnología

El puzle genético de la humanidad se está completando en internet: estos son los riesgos que conlleva terminarlo | Salud y bienestar

Published

on

Cuando era pequeño, Adriano Berjillos escuchaba a su padre relatar historias familiares. Sabía que tenía un antepasado, de esos cuyo grado de parentesco se mide en “tataras”, que provenía de Alemania. De ahí había sacado él su piel blanca y su pelo rubio, le decía. 30 años más tarde, se lo repitió un email de 23andMe. Berjillos pagó unos 100 euros, escupió en un tubo de ensayo y unas semanas más tarde pudo echar un vistazo a su propio ADN. “Bienvenido a ti mismo”, le decía el mail. Las leyendas familiares tomaron un poso tangible cuando descubrió que, efectivamente, tenía un 4,5% de sangre franco-germana. Que tenía muchas posibilidades de tener la piel blanca y el pelo rubio o castaño. Que no tenía pecas. Que, seguramente, tendría el dedo gordo del pie más largo que el resto. “Y acertó en todo”, comenta sorprendido.

También le dijo que tenía menos de un 1% de ascendencia asquenazí, comunidad judía que se asentó en el centro de Europa en el siglo IX. Esta comunidad, junto a la china, fue el principal objetivo de un grupo de hackers que el pasado mes de septiembre accedió a las bases de datos de 23andMe para robar perfiles genéticos. Pusieron el de Berjillos, y el de otros cuatro millones de usuarios, a la venta en un foro de la deepweb. Se suponía que algunas aseguradoras sanitarias podrían estar interesadas. O algunos tabloides, pues se incluía, con nombres y apellidos, el perfil genético de personajes famosos. Otras informaciones sugerían que la finalidad real era chantajear a la empresa con un daño reputacional.

A Berjillos todo esto le da bastante igual. En Europa hay sanidad pública y total, él ya había compartido sus datos en Forocoches. No cree que el hecho de tener el dedo gordo del pie muy largo sea una información especialmente interesante o que merezca la pena ocultar. En el momento de hablar con EL PAÍS ni siquiera había comprobado en su correo electrónico si le habían robado los datos. “Oye, que sí”, añadirá en un posterior audio. “He comprobado y efectivamente, me mandaron un mail”.

Los datos son el petróleo de la economía digital y en los últimos años, millones de personas han subido los de su ADN a internet, lo que podría suponer un problema. Quizá no para alguien como Berjillos, pero los usuarios con malformaciones genéticas, perfiles públicos o pertenecientes a minorías étnicas en contextos racistas (como los uigures en China o los rohinyás en Birmania) pueden tener más recelos.

Advertisement

La mayoría de clientes de esta tecnología (hasta el 80% en el caso de 23andMe) acceden a que su genoma sea utilizado para investigación médica. Y esto, además de estudios interesantes, reporta pingües beneficios. En 2018, 23andMe llegó a un acuerdo con una de las farmacéuticas más grandes del mundo, GlaxoSmithKline, por más de 300 millones de dólares para el “desarrollo de nuevos medicamentos”. Antes de este trato hubo más de una decena de acuerdos similares. Estos datos suelen estar anonimizados, pero un estudio de la revista Nature, de 2021, alertaba sobre riesgo residual de identificación individual.

“La mayoría de las grandes empresas del sector obtienen beneficios vendiendo los datos genéticos de sus clientes”, señalan en la web de la empresa española 24Genetics. “Nosotros, no”. Su presidente, Nacho Esteban, explica que las leyes europeas son mucho más garantistas que las estadounidenses. “Aquello es el lejano oeste de los datos”, resume. Pero subraya, él también, que es una venta anonimizada, y apunta a que el uso de estos datos con fines científicos puede ser positivo. “Nosotros, por ejemplo, hicimos una investigación sobre la genética y cómo afecta a la covid. Lo hicimos de manera gratuita y nos publicaron en Nature”.

Los datos se conservan en línea para poder actualizarse con los avances científicos que se dan en este campo de forma notable. Y para ir conectando a familiares a medida que estos se hagan un perfil. La cosa empezó como un Facebook de genes, pero poco a poco, está componiendo un puzle del ADN de la humanidad. Y ya hay tantas piezas que muchas veces es posible localizar incluso a las que faltan.

Se calcula que bastaría un registro de perfiles genéticos del 2% de la población adulta de un país para localizar a los parientes de cualquier ciudadano a partir de una muestra de ADN anónima. Según un estudio de JAMA Insights, en 2021 se habían realizado más de 26 millones de pruebas. Tres años más tarde, solo las dos empresas más grandes, 23andMe y Ancestory, superaban de largo esa cifra, llegando a los 33 millones. Los números están creciendo de forma exponencial. “No sabemos cuántos perfiles hay de población española, pero en Estados Unidos, la probabilidad de localizar a alguien es altísima”, señala Antonio Alonso, genetista y director del Instituto Nacional de Toxicología y Ciencias Forenses.

Antonio Alonso, director del Instituto Nacional de Toxicología y Ciencias Forenses, fotografiado en su sede en Madrid. Santi Burgos

Alonso destaca las múltiples implicaciones que esto puede tener. Para empezar, en el campo de la investigación policial, donde será posible encontrar a casi cualquier criminal con una muestra de ADN. En 2018 la policía de Sacramento detuvo, tras más de 40 años, al llamado Golden State Killer, uno de los mayores asesinos y violadores en serie de la historia de Estados Unidos, gracias a los bancos genéticos. Un investigador subió una muestra genética del misterioso asesino a GEDmatch. Así comenzaron a hallar familiares lejanos, hasta que se cerró el círculo sobre Joseph James DeAngelo Jr. El caso dio la vuelta al mundo por la fama de su autor, pero dista mucho de ser único. “Ya llevamos 700 casos investigados con esta técnica, muchos de ellos resueltos”, apunta Alonso. “Sobre todo en EE UU, pero también en Europa”.

Advertisement

Hasta ahora, para estos casos, se utilizaba CODIS, un programa informático (creado por el FBI estadounidense, pero usado en muchos países europeos) que contiene datos de perfiles de ADN de personas condenadas, de pruebas halladas y de personas desaparecidas. Este hace el estudio de unas 20 o 25 regiones del ADN. Pero en los últimos años, con la popularidad de las bases de datos públicas, gestionadas por compañías privadas, se ha abierto una nueva forma de investigación. En estas hay decenas de millones de personas, no unos pocos miles. Y su análisis es mucho más exhaustivo. “Ahí se están analizando, no 20, sino 600 mil regiones del genoma”, destaca Alonso. “Por eso son tan efectivas”.

Son particulares, gente que quiere saber qué tanto por ciento de vikingo tiene su sangre, qué malformaciones genéticas puede desarrollar o si tiene un primo cuarto que vive en Australia. Pero de paso, puede dar la información necesaria para llevar a la cárcel a un familiar. Antes se registraba la posible aguja. Ahora se está registrando todo el pajar, pero con tanto detalle y de forma tan metódica que es posible triangular cualquier aguja. Gracias a las bases de datos de ADN y trabajando con los registros públicos y las redes sociales, se puede llegar a la rama correcta del árbol genealógico correcto, cercando a la persona misteriosa hasta reducir el número de sospechosos a una decena. “Esto no te lleva directamente al criminal, sino a un grupo de familiares de hasta cuarto grado”, explica Alonso. “Entonces hay que investigar, quién es esa persona, las dimensiones geográficas, temporales, la edad tiene este individuo”.

Pero en España, la policía no usa las bases de datos de estas empresas. Lo confirma Begoña Sánchez, comisaria y directora de la Policía Científica a EL PAÍS. “En estos casos se usa CODIS”, añade. Sánchez reconoce que acceder a los enormes registros de las empresas privadas podría ayudar en la resolución de algún caso, pero no es la tecnología, sino la ley la que lo impide. “¿Hasta dónde llega el consentimiento de alguien que sube su perfil genético a estas plataformas?”, se pregunta. Ella intuye la respuesta de un juez, así que ni lo intenta. “No nos vamos a arriesgar a que nos tiren una investigación”, resume tajante. CODIS tiene ciertas limitaciones. Solo menciona el sexo de la persona, cuando la tecnología ya permite hacer una descripción mucho más pormenorizada. “El futuro es este, pero tiene que ir acompañado de una legislación acorde”, resume la comisaria. “Vamos hacia la secuenciación masiva”.

Mar Anes, adoptada, ha conseguido localizar a familia lejana gracias a este tipo de test.
Mar Anes, adoptada, ha conseguido localizar a familia lejana gracias a este tipo de test.

Los archivos se destruyen, los genes no

No solo la policía tiene interés en triangular a una persona desconocida a través de material genético. Alonso está ayudando a montar un Banco estatal de ADN de víctimas de la Guerra Civil y la dictadura. La herramienta ayudará a identificar restos de fosas comunes de asesinados, pero también incluirá los perfiles genéticos de las personas presuntamente afectadas por robos de bebés, aunque hace poco señalaba en este periódico que él no conoce ningún caso.

Este tipo de investigaciones también son bastante habituales en personas adoptadas que buscan sus orígenes. Muchos de ellos se empezaron a hacer los test genéticos hace años, para conocer posibles predisposiciones a desarrollar enfermedades. Pero con el avance de la biotecnología, este procedimiento se ha convertido en una herramienta para localizar a la familia biológica.

“Los archivos pueden destruirse, pero los genes, no. Lo único que no va a desaparecer nunca es el ADN”, señala Beatriz Benéitez, mediadora familiar y presidenta de la asociación La voz de los adoptados. Ella nunca lo ha usado, pero ha acompañado a muchas personas en este camino. “Yo les oriento y les aconsejo siempre que se lo hagan”, confirma. Es lo que hizo con Mar Anes. “Mi intención era encontrar algún familiar directo o alguno que me acercase al mismo objetivo, quizá algún primo lejano”, explica Anes, adoptada —y adoptante— de 52 años, en un intercambio de audios. Le salieron 1.500. Una de las más cercanas era Nelly, una prima cuarta de 80 años. Ahora también es su amiga y hablan casi todos los días. A veces le manda una foto y Nelly le contesta, “tienes los ojos igualitos que esta u otra prima”. Cuando va al médico, le recuerda los antecedentes sanitarios de la familia. Son frases sencillas, pero para Anes significan un mundo. Nadie le había buscado un parecido hasta entonces, nadie le había hablado de unos antecedentes, no solo médicos, sino familiares. “Es muy bonito”, reconoce ella.

Advertisement

Anes sabe por su perfil genético que la mayoría de su familia proviene de León. Pero lamenta que allí los test genéticos no sean muy populares. Por eso no ha conseguido localizar a un familiar más cercano. “Tampoco estoy haciendo una búsqueda activa”, reconoce, “creo que no podría soportar otro rechazo”. Pero cada ciertos meses vuelve a mirar en su perfil en 23andMe para comprobar si hay novedades, si algún nuevo familiar se ha hecho el test. Sabe que es cuestión de tiempo.

Nacho Esteban también lo cree. El empresario confirma que este sector ha crecido enormemente en los últimos años, pero opina que no es una moda sino una tendencia. Y que está lejos de frenarse. “Estas tecnologías cada vez son capaces de leer más datos con mayor precisión y a un coste más bajo”, señala. Esto explica el número creciente de solicitudes a las que están haciendo frente. Los beneficios son muchos y evidentes. Los riesgos pasan por un posible filtrado de datos. O por ayudar a enviar a un familiar lejano (y culpable) a la cárcel. Pero la cuestión es que, aunque usted no esté en uno de estos enormes bancos de datos genéticos, siempre habrá un primo lejano, una tía o un sobrino que sí esté. Su material genético ya está en línea, aunque jamás se haya hecho una prueba.

Puedes seguir a EL PAÍS Salud y Bienestar en Facebook, X e Instagram.

Advertisement
Continue Reading

Tecnología

IBM anuncia el comienzo de la “era de la utilidad cuántica” y anticipa un superordenador en 2033 | Tecnología

Published

on

Una investigadora de IBM revisa un ordenador cuántico de la compañía en el centro de la multinacional en Nueva York.CONNIE ZHOU

La computación cuántica no es solo cuestión de cúbits, la unidad básica de información. La clave para esta tecnología es la conjunción de sistemas que permitan construir un ordenador útil y tolerante a los fallos. La multinacional IBM ha anunciado este lunes un paso fundamental en este sentido al presentar tres avances: un procesador de 1.121 cúbits denominado Cóndor (el mayor conocido); Heron, un chip de 133 cúbits desarrollado para su interconexión y basado en una arquitectura conocida como “tunable coupler”; y un nuevo System Two, un sistema modular y flexible para combinaciones múltiples de estos procesadores con enlaces de comunicación cuántica y clásica. Estos avances, unidos a las nuevas fórmulas de mitigación y corrección de errores, anticipan lo que Darío Gil, vicepresidente de IBM y director de la división de investigación (IBM Research), califica como “la nueva era de utilidad cuántica”, que podría desembocar, según sus previsiones, en un superordenador básicamente cuántico, pero con sistemas clásicos y con corrección modular de errores en 2033.

Los últimos desarrollos de IBM han hecho saltar por los aires la propia hoja de ruta de la multinacional, que ha cumplido hasta ahora con precisión matemática, para llegar más lejos y antes de lo previsto al “desbloqueo de todo el poder de la computación cuántica”, según la nueva senda tecnológica presentada este lunes.

Nueva hoja de ruta de IBM hacia la computación cuántica.
Nueva hoja de ruta de IBM hacia la computación cuántica.IBM

Superar los errores, en palabras de Jian-Wei Pan, físico de la Universidad de Ciencia y Tecnología de China, “es uno de los grandes desafíos para el ser humano”. Los fallos se generan por cualquier interacción con el medio ambiente (ruido, ondas o temperatura, por ejemplo) y provocan que la superposición de estados (la propiedad física que permite a una partícula estar en una posición A y B al mismo tiempo) se degrade hasta hacerla inútil. Esa superposición es lo que permite una capacidad exponencial de la computación cuántica frente a la binaria clásica, que se limita al 0 o 1 del bit. De esta forma, si dos bits pueden almacenar un número, dos cúbits almacenan cuatro y diez cúbits pueden tener 1.024 estados simultáneos.

Para llegar a esa meta de sistemas útiles y tolerantes, IBM cree haber dado con las puertas que lo pueden permitir y que se fundamentan en avances de los procesadores, en los sistemas de interconexión de estos para permitir una computación robusta y en la mitigación y corrección de errores.

Cóndor de IBM, de 1.121 cúbits.
Cóndor de IBM, de 1.121 cúbits.IBM

El aumento de capacidad singular lo ha conseguido IBM otra vez. “El Cóndor vuela”, bromea Gil ante el hito del nuevo procesador cuántico que sucede al Osprey, presentado el pasado año con 433 cúbits, capaz de representar un número de estados superior a la cantidad de átomos en el universo observable. Pero casi triplicar la capacidad del procesador no es lo único alcanzado. “Muchas cosas han pasado este año simultáneamente”, explica Gil.

El principal logro es que IBM considera que ya no es imprescindible continuar aumentado la capacidad de un procesador único, sino que se puede alcanzar la computación cuántica práctica con otro método. “Vamos a hacerlo a través de modularidad, con muchos chips conectados unos con otros de tal manera que podamos crear el superordenador”, asegura Gil.

Advertisement
Chip Heron con arquitectura 'Tunable coupler'.
Chip Heron con arquitectura ‘Tunable coupler’.IBM

Estos chips, que serían como las piezas de un juego de construcción, son ahora los IBM Quantum Heron de 133 cúbits, creados a partir de una nueva arquitectura denominada tunable coupler. Esta ingeniería permite plataformas de información cuántica de mayor tamaño y funcionalidad. “Heron puede combinarse modularmente e incorporar la comunicación clásica para acelerar los flujos de trabajo. Con el tunable coupler podemos ajustar la frecuencia de los cúbits y conseguir un procesador mucho mejor que el anterior”, explica Gil. Esta arquitectura se complementa con los 4K cryo-CMOS, controladores de estado de cúbits semiautónomos, de baja potencia y “del tamaño de una uña”.

“Heron es nuestro mejor procesador cuántico en cuanto a rendimiento hasta la fecha. Supone una mejora de hasta cinco veces con respecto al dispositivo insignia: el Eagle”, añade Matthias Steffen, jefe de arquitectura cuántica de la compañía y de tecnologías de procesadores.

La base de la interconexión de los chips Heron es la nueva generación del System Two, el sistema diseñado para combinar de forma modular y flexible múltiples procesadores en un solo sistema con enlaces de comunicación. Esta red es el componente básico de la supercomputación cuántica, ya que permite escalar el potencial computacional sin tener que progresar indefinidamente en la capacidad singular de un solo procesador.

“El System Two permitirá nuevas generaciones de procesadores centrados en tecnología cuántica, con una infraestructura central totalmente escalable y modular que permitirá ejecutar circuitos como nunca”, asegura Steffen.

Interior del IBM Quantum System Two.
Interior del IBM Quantum System Two.IBM

El nuevo modelo ha llevado a repensar los próximos desarrollos. Gil afirma que “todas las generaciones siguientes van a estar basados en él”. “Estamos convencidos de que no necesitamos aumentar más el número de cúbits por unidad de procesador. El futuro va a ser cientos y miles de procesadores, cada uno más pequeño de 1.000 cúbits, conectados entre sí”, asegura.

El elemento clave que abrió las puertas de esta nueva senda fue la investigación publicada en Nature y que demostró que un procesador de IBM de solo 127 cúbits es capaz de medir valores esperados en operaciones de física más allá de las capacidades de los mejores métodos computacionales clásicos actuales. “Nos permite entrar en la era que hemos denominado de la utilidad cuántica, en la que ya se pueden hacer cálculos de una manera mucho más eficiente y robusta de lo que se puede hacer con cualquier tipo de simulador o con cualquier tipo de computación clásica”, asegura Gil.

Katie Pizzolato, responsable de algoritmos cuánticos y socios científicos de la compañía, cree que se trata de un momento disruptivo: “Fue la primera vez que una computadora cuántica produjo valores precisos a una escala que estaba fuera del alcance de la computación clásica de fuerza bruta y la respuesta desde entonces ha sido exactamente lo que esperábamos; desde este artículo hemos visto a muchas personas publicando investigaciones que usan la cuántica como una herramienta”.

Advertisement

Ya no se trata solo del Qiskit, un entorno de sistemas clásicos y cuánticos que permite llevar a la programación las soluciones frente al ruido y facilitar a los usuarios que incorporen la computación más avanzada. “Ahora hemos roto la barrera de los más de 100 cúbits con suficiente calidad”, resalta el directivo español en referencia a la investigación de Nature. Y anuncia: “Combinados con la mitigación de errores, van a permitir una explosión científica”.

Jay Gambetta, vicepresidente de IBM Quantum, destaca que ese desarrollo de programas se verá favorecido por la inteligencia artificial: “Todo el poder de la computación cuántica será impulsado por la IA generativa, que simplificará la experiencia del desarrollador”.

“Hay muchos problemas que afrontar y la naturaleza sabe cómo, pero no nos lo dice”, resume Stefan Woerner, director de Ciencia Computacional Cuántica en la sede de IBM en Zúrich (Suiza). El científico afirma que el objetivo final es llegar a una computación cuántica fundamentada en tres criterios: que sea más eficiente, barata y precisa. El modelo demostrado en Nature, según afirma, ha sido “crucial” para avanzar en esta senda.

“Será muy extraño que cualquier plataforma importante en la nube no tenga computación cuántica en 2030. Esta va a ser más impactante que la inteligencia artificial y los actuales supercomputadores”, cree Christian Weedbrook, director de Xanadu Quantum Technologies. “La computación cuántica cambiará las relaciones entre la gente, la tecnología y el trabajo”, añade Soney Trent, fundador y presidente de la también empresa tecnológica Bulls Run Group.

Las investigaciones cuánticas continúan y todas contribuyen al desarrollo de esta tecnología. Investigadores del Laboratorio Nacional Argonne del Departamento de Energía de los Estados Unidos (DOE), la Universidad de Chicago y la Universidad de Cambridge ha creado a partir del diamante cúbits más controlables y que pueden operar con equipos y gastos significativamente reducidos, según han publicado en Physical Review X. “Nuestra técnica permite elevar drásticamente la temperatura de funcionamiento de estos sistemas y reduce mucho los recursos para operarlos”, afirma Alex High, profesor asistente de la Escuela de Ingeniería Molecular Pritzker de la Universidad de California, cuyo laboratorio dirigió el estudio.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

Advertisement
Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.