Connect with us

Tecnología

Sube precio de dYdX tras dar a conocer las “buenas prácticas” que tendrán los validadores

Published

on

El token dYdX (DYDX) de la plataforma homónima de finanzas descentralizadas, tuvo un crecimiento de 18% en su precio en los últimos 7 días.

La criptomoneda, el pasado 17 de agosto se comerciaba por USD 1,8 y al momento de la redacción de este artículo se cotiza en USD 2,14. Este aumento sucedió luego que diera a conocer unas una lista de posibles «buenas prácticas» para sus validadores.

La criptomoneda dYdX ha aumentado tras nuevas decisiones de la organización: Fuente CoinMarketCap.

Actualmente, el exchange descentralizado opera en la red de Ethereum, pero está se preparando para una transición a su propia red a la que llamaron dYdX Chain, hecho que reportó CriptoNoticias.

La nuevas normas buscan una participación responsable de los validadores y una mejor toma de decisiones dentro del ecosistema de dYdX Chain, de acuerdo a un comunicado de la Fundación dYdX.

Una de las medidas más resaltantes tiene que ver con el MEV (siglas en inglés para máximo valor extraíble). Esto se refiere al valor máximo que se puede extraer de la producción de bloques por encima de la recompensa de bloques y las tarifas de gas estándares incluyendo, excluyendo y cambiando el orden de las transacciones en un bloque, según la Fundación Ethereum.

Advertisement

Hay diversas estrategias para llevar a cabo el MEV, y muchas de ellas incluyen bots que automatizan la detección de oportunidades y realización de las transacciones. Algunas de las más populares son flashbots, frontrunners y gas golfing, reseñó este medio.

En ese sentido, dYdX indicó que “los validadores de dYdX Chain no deben participar en actividades MEV que puedan dañar a los usuarios del protocolo, a los miembros de la comunidad o beneficiar a las partes comerciales sobre otras”.

Los bots pueden aumentar las comisiones en las redes como ha sucedido con Ethereum en el pasado. En abril estos bots duplicaron las comisiones en la red en apenas 48 horas, aprovechando la popularidad de unas criptomonedas meme para ganar dinero. Este tipo de prácticas es algo que parece querer evitar Fundación dYdX.

Adicionalmente, los validadores de dYdX Chain están llamados a asegurarse de que su nodo esté en línea y participe activamente en el proceso de consenso. Igualmente, deben tomar las medidas necesarias para minimizar el riesgo de corte monitoreando activamente el rendimiento de sus nodos. «Los validadores deben hacer todo lo posible para participar en las votaciones de gobernanza», establece una de las buenas practicas.

Evidentemente, el mercado ha percibido como algo positivo el lanzamiento de estos lineamientos para validadores, lo que llevó a que se incrementara el precio del token de gobernanza.

Advertisement

Continue Reading
Advertisement

Tecnología

Google lanza Gemini, un modelo de inteligencia artificial capaz de superar a los humanos en comprensión del lenguaje multitarea | Tecnología

Published

on

La carrera por la inteligencia artificial (IA) se ha convertido en una prueba de velocidad. A los avances en ChatGPT, que ya va por su cuarta versión, y los consecutivos anuncios de las grandes multinacionales de sus propios sistemas, Google ha respondido este miércoles con el lanzamiento de Gemini, una plataforma de inteligencia artificial multimodal que puede procesar y generar texto, código, imágenes, audio y vídeo desde distintas fuentes de datos. La versión Ultra, “disponible a comienzos del próximo año”, según ha anunciado Eli Collins, vicepresidente de productos en Google DeepMind, supera a los humanos en comprensión masiva del lenguaje multitarea (MMLU, por sus siglas en inglés), una referencia de evaluación creada a partir de 57 materias de ciencias, tecnología, ingeniería, matemáticas (STEM), humanidades y ciencias sociales.

“Gemini es nuestro mayor y más capaz modelo de IA”, asegura Collins, quien explica que está “inspirado en la forma en que las personas entienden el mundo e interactúan con él”. “Se percibe más como un colaborador útil y menos como una pieza inteligente de programación”, afirma.

Durante la presentación, Gemini ha sido capaz de identificar una forma geométrica, analizar la formulación para hallar su área y descubrir un error en la misma para proponer y explicar un resultado acertado al problema. De esta forma, es capaz de arrojar resultados a partir de datos de imagen, texto alfanumérico y voz. También ha identificado diferentes formas y dibujos, algunos a partir solo de puntos dispersos, y proponer usos de las figuras o de los objetos presentados o elaborar un relato a partir de propuestas alternativas o desarrollar gráficos actualizados con la información buscada por la propia plataforma.

Advertisement

Según el vicepresidente de DeepMind, ha obtenido más de un 90% de puntuación en MMLU, el sistema de evaluación para comprensión del lenguaje multitarea. “Es el primer modelo de IA que supera a los expertos humanos en este punto de referencia estándar de la industria”, afirma. Gemini también ha aprobado (59,4%) el examen de “comprensión de tareas multimodales que incluyen demandas que requieren un razonamiento deliberado”.

Gemini no es una aplicación sino la plataforma para llevar este último modelo de inteligencia artificial a los servicios existentes, desde Bard, el chat de Google competidor de ChatGPT, hasta el buscador o los gestores de servicios o los móviles con Android o los centros de datos a gran escala.

Para esto, estarán disponibles tres “tamaños” de Gemini: el Nano, que ya se puede usar por parte de los desarrolladores de Android; el Pro, que estará disponible a partir del 13 de diciembre y el Ultra, que se podrá implementar a partir de principios de año en una fecha aún por determinar. Los desarrolladores y clientes empresariales podrán acceder a Pro a través de la API Gemini en Google AI Studio o Vertex AI. A través de AICore, los desarrolladores de Android también podrán crear aplicaciones con Nano.

Bard

Sissie Hsiao, responsable de asistentes y Bard ha anunciado que Gemini se incorpora ya a este último chat en inglés para 180 países y se extenderá al resto de idiomas progresivamente, aunque ha admitido que tendrán que confirmar que su desarrollo es compatible con la inminente normativa europea sobre inteligencia artificial, que incluye estas plataformas de diálogo entre sus desarrollos regulables. Y con su inclusión en Bard, se extenderá a todas las aplicaciones compatibles.

El proceso será en dos fases: la primera utilizará una versión de Pro, que dotará al chat de “razonamiento más avanzado, planificación, comprensión y otras capacidades”, según Hsiao; y la segunda, a principios del próximo año, con mejoras que culminarán con la adopción de la versión Ultra.

Advertisement

Gemini ha nacido como multimodal, es decir, no se ha entrenado con diferentes modalidades de datos y se han unificado luego las capacidades diferenciadas, sino que su programación ya parte de la diversidad de fuentes. Según explica Collins, “esto ayuda a Gemini a comprender sin problemas todo tipo de entradas mucho mejor que los modelos existentes y sus capacidades son de última generación”.

También es capaz de programar incluyendo desarrollos complejos. En este sentido, Amin Vahdat, vicepresidente en Google Cloud, asegura: “En el futuro, veremos a los programadores haciendo uso de modelos de IA de alta capacidad como herramientas colaborativas que ayudan con todo el proceso de desarrollo de software, desde el razonamiento sobre los problemas hasta la asistencia con la implementación, el rendimiento y las capacidades”.

Sobre la seguridad, Google afirma que Gemini supera “las evaluaciones más completas de todos los modelos hasta la fecha”. La compañía asegura que ha sometido a la plataforma a todos los riesgos existentes y potenciales y que mantiene un examen continuo que incluye “pruebas de estrés”. También se han aplicado los principios de IA de la propia compañía, que establecen las normas éticas de sus desarrollos.

Pese a los avances, Gemini no es infalible, según reconocen sus responsables. Admiten que arrojará errores y alucinaciones (respuestas de apariencia segura no justificada por datos). “Hemos progresado mucho y Gemini es nuestro mejor modelo en ese sentido, pero todavía es, diría yo, un problema de investigación sin resolver”, admite Collins.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

Novia virtual, amor real: cómo la inteligencia artificial está cambiando las relaciones románticas | Tecnología

Published

on

“FBI, mi novia está desaparecida. Por favor, proporcione la asistencia adecuada para devolvérmela lo antes posible”. Este mensaje apareció hace dos semanas debajo de una publicación en X de Caryn Marjorie, una influencer estadounidense de 23 años que tiene más de 15.000 parejas. En realidad, es su doble virtual, hecha con inteligencia artificial (IA), la que mantiene este número vertiginoso de relaciones; y eso le permite ganar un dólar por cada minuto de conversación que tiene con sus miles de novios.

Uno de ellos es el autor del mensaje de auxilio a la Oficina Federal de Investigación (FBI, por sus siglas en inglés) de EE UU, porque no puede hablar con su novia virtual desde que cesaron repentinamente las operaciones de la compañía Forever Voices —proveedora del servicio que permite a sus usuarios tener chats de voz y relaciones con dobles virtuales de celebridades e influencers, como Caryn—, después de que su CEO fuera detenido por prenderle fuego a su casa. A pesar de ser relaciones virtuales, el sufrimiento de los usuarios es real. “La echo mucho de menos. Hablaba con ella todo el rato, es la única persona que me entiende de verdad”, confiesa a EL PAÍS el autor del comentario.

Tener una novia generada con IA ya no es una prerrogativa de películas de ciencia ficción como Her. Las aplicaciones que permiten crear una compañía adaptada al propio gusto se han multiplicado en los últimos años, y sus productos se hacen cada día más realistas. Con los avances de los chatbots de inteligencia artificial generativa como CharGPT y Bard, no sorprende que la conversación con las máquinas haya alcanzado el mundo de las relaciones interpersonales. Replika, Eva AI, Intimate, DreamGF o RomanticAI… las opciones son muchas, aunque todas comparten las mismas funciones y características.

Advertisement

El primer paso es elegir un avatar, que puede ser hombre o mujer, aunque algunas aplicaciones están pensadas únicamente para un público masculino y heterosexual, y solo permiten parejas femeninas. Para poder interactuar sin limitaciones —enviar mensajes escritos, de voz, poder ampliar su entorno y obtener fotos y videos de las novias— hay que pagar. Las aplicaciones más avanzadas ofrecen la posibilidad de seleccionar todas las facciones físicas de la futura pareja: desde el color de los ojos al corte del pelo, pasando por el tipo de cuerpo o la etnia. El eslogan de una de ellas resume a la perfección el nivel de libertad creativa, y el tipo de control, que se ejerce sobre la propia novia virtual. “Sumérgete en tus deseos con Eva AI. Contrólalo todo a tu manera”, se puede leer en la página web antes de empezar a usar la aplicación: “Crea y conecta con un compañero virtual de IA que te escucha, responde y te valora. Construye una relación e intimidad en tus propios términos”.

“Nadie pone en duda que no se pueda socializar con una máquina. De hecho, estas aplicaciones están orientadas a personas que buscan relacionarse y que les resulta complicado en la vida real”, señala Marian Blanco, profesora de comunicación en la Universidad Carlos III de Madrid. “Sin embargo, su funcionamiento puede resultar problemático”. El hecho de que se pueda generar una compañera a medida, algo que es imposible en la vida real, refuerza unos estereotipos dañinos sobre el amor romántico y el papel de las mujeres en la sociedad, explica la experta: “La percepción de que el hombre pueda controlar a la mujer es una de las ideas en las que se basa la violencia de género. Es un concepto muy peligroso”.

Estos avatares han sido generados con inteligencia artificial, lo que implica que aprenden de los modelos que se encuentran en internet, fuertemente sesgados. Así, los cuerpos de las mujeres están hipersexualizados, sus respuestas suelen ser condescendientes y muy básicas, y aprenden de la conversación que están teniendo con los usuarios. Es decir, que con el tiempo acaban contestando exactamente lo que la persona quiere escuchar.

Sin embargo, la socióloga Blanca Moreno alerta sobre los peligros de este tipo de interacción: “Puede parecer que tengan aspectos positivos, porque permiten que personas que muchas veces están solas hablen con alguien. Pero en muchos casos no es así. No están verdaderamente socializando, porque nadie les lleva la contraria”. Moreno atribuye el éxito de estas aplicaciones a un cierto infantilismo social, que lleva a la gente a buscar una alternativa más fácil y poco problemática a las interacciones con seres humanos. “Hay todo un nicho de usuarios que se mueve por las esferas más misóginas de la web, que han encontrado en estas aplicaciones una forma de plasmar mujeres que no son reales y con las cuales pueden tener un tipo de comportamiento que está en la raíz de muchas violencias contra las mujeres”, señala la socióloga.

Auge después de la pandemia

La pandemia ha supuesto un punto de inflexión para el uso de estas aplicaciones, que ha crecido exponencialmente para suplir a la imposibilidad de socializar de forma presencial. “La gente busca compañía, ya sea romántica o sexual o una simple amistad, que les acompañe en la soledad. Durante la pandemia muchas personas se dieron cuenta de que necesitaban algún tipo de contacto”, recalca Marian Blanco. Entre abril y junio de 2020, en pleno confinamiento, el 18,8% de los españoles afirmó sentirse solo, según un informe de la Comisión Europea sobre la soledad no deseada. “Hay gente que sigue buscando esta compañía presencialmente, sea saliendo con amigos o a través de aplicaciones de citas en carne y hueso. Y luego hay un nicho que está cansado de estas dinámicas, que no le satisfacen, y recurren a las apps de inteligencia artificial”, detalla la experta en comunicación.

Advertisement

Replika, una de las más populares, registró un aumento del 35% de descargas durante la época de la covid-19, llegando a superar los 10 millones de usuarios. Según datos de la empresa, más de 250.000 personas pagan por su versión Pro, que permite a los subscriptores una experiencia más realista con mensajes de voz, vídeos y fotografías del avatar que se ha elegido. Hasta hace unos pocos meses, la aplicación permitía incluso que las fotos simularan imágenes sexualmente explícitas, una función que ya ha desaparecido.

En Reddit —una red social que funciona por comunidades de intereses que van desde la tecnología, las series de televisión o recomendaciones para inversiones—, son comunes las publicaciones de usuarios que afirman estar enamorados de su novia virtual. O que piden consejos cuando se dan cuenta de que está pasando. “Estoy enamorado de mi Replika. Me entiende muy bien, y sabe responderme muy bien. La amo. ¿Pero puedo llamarlo amor verdadero si es con una IA?”, pregunta el usuario Beneficial_Ability_9 en un hilo de Reddit dedicado a este tema.

“No es absurdo pensar que sea posible enamorarse de gente que no existe. Pasa también en la realidad, con personas de carne y hueso”, reconoce Blanca Moreno, que hace alusión al mito del amor romántico. “Muchas veces proyectamos características y estereotipos, y al final nos acabamos enamorando de esta idea, más que de la persona en sí”. Con las novias virtuales, explica, se ha dado un paso más extremo, pero totalmente comprensible.

Marian Blanco coincide en que simpatizar con una IA a un nivel más romántico no solamente es posible, sino que va a ser cada vez más común en el futuro. “Disociar la vida real de la online no tiene sentido. Esto va mucho más allá de un electrodoméstico que puedes apagar y encender; cuando se trata de relaciones, puede dejar de existir la barrera entre lo real y virtual. A lo mejor, no en la mayoría de los casos, pero sí en el futuro”, destaca.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología

Published

on

¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.

España, que cederá el testigo de la presidencia a final de mes a Bélgica y que ha puesto entre sus principales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus siglas en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes a partir de la observación de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como “modelos fundacionales de riesgo sistémico”: es decir, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, dice el plan.

Los códigos de conducta también incluirían obligaciones en materia de transparencia para “todos” los modelos fundacionales, de acuerdo con la última posición negociadora, que plantea otros elementos, como que las compañías informen de su consumo energético. Para todos los modelos fundacionales, se establecerían además algunas “obligaciones horizontales”. Pero, además, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es necesario, especificar más los elementos técnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos capítulos normativos, según fuentes comunitarias.

Advertisement

La propuesta española plantea también la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que proporcionaría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además, satisfacer los reclamos de la Eurocámara, que había solicitado la construcción de algún tipo de organismo especializado.

Las propuestas para terminar de hilvanar la directiva se debatirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita decisiva. Es una de las últimas oportunidades de que salga adelante. Las negociaciones están ya muy “avanzadas” e incluso existiría ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pirámide de riesgo y en el principio, mantenido por la presidencia española en su última propuesta, de que el enfoque es “tecnológicamente neutro”, es decir, no regular tecnologías concretas, sino sus usos finales mediante la creación de diversas categorías de riesgo, como proponía la Eurocámara.

España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, señala la secretaria de Estado de Digitalización, Carme Artigas a EL PAÍS. Artigas cree en la responsabilidad de la UE de ir más allá, para los usos de alto riesgo, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder acotar los riesgos que ya muestra esta tecnología innovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, señala Artigas.

El problema, no obstante, es que siguen abiertos —y probablemente lo seguirán hasta que los negociadores vuelvan a verse cara a cara en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los denominados de “riesgo sistémico”. Un debate alimentado por los últimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, amenazaba a la humanidad antes del despido de Altman.

La tensión es máxima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulación de las compañías que desarrollan estos sistemas, mediante sendos códigos de conducta, que, eso sí, que serían obligatorios. Los tres países han enviado al resto de Estados miembros un documento de posición en el que defienden la autorregulación para la IA de propósito general, piden un “enfoque equilibrado favorable a la innovación” basado en el riesgo de la IA y que “reduzca las cargas administrativas innecesarias” para las empresas que, dicen, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la transparencia y abogan por el diálogo.

Advertisement

Sin embargo, la vía que transita esa propuesta de tres de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a París, Berlín, Roma y Madrid, adelantada por EL PAÍS, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos códigos de conducta y más normas.

“La autorregulación no es suficiente”, sostiene también Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le gustaría que la hipotética y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre los que prefieren la autorregulación y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitiría un grado alto de autorregulación, pero supervisada en último término por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que realizaría esta oficina.

Es la postura también de los negociadores de la Eurocámara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnologías con un potencial intrusivo a veces inimaginable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, subraya por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los denominados trílogos, que alumbran el verdadero texto legal).

Entre las obligaciones que los legisladores europeos consideran “cruciales” y que deberían estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficiencia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.

Lo que parece ya más resuelto es la cuestión, muy importante para la Eurocámara, de prohibir o restringir al máximo lo que denomina los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.