Connect with us

Tecnología

La guerra en Gaza expone cómo X suspende en desinformación desde que la compró Elon Musk | Tecnología

Published

on

La reapertura del conflicto armado en Gaza ha puesto en evidencia la incapacidad de X (la red social antes conocida como Twitter) para frenar la difusión de desinformación, que se ha multiplicado en los últimos días. Los expertos en verificación de datos lo relacionan con la llegada de Elon Musk: en el último año, la compañía flexibilizó las reglas de la plataforma, despidió a la mayoría de las personas que se ocupaban de verificar bulos y restableció cuentas que en algún momento estuvieron censuradas por saltarse las normas. Además, unos meses antes del conflicto, X eliminó el acceso a una herramienta de datos que era gratuita para los académicos y que se empleaba para identificar las cuentas que se dedicaban a difundir información falsa. Los expertos en verificación de información aseguran que la avalancha de falsedades nunca ha sido igual.

“Siempre que hay algún tipo de crisis, bien sea nacional o internacional, hay un pico de desinformación. Pero en este caso estamos comprobando que hay, en general, más desinformación y que llega más lejos”, reconoce Clara Jiménez, cofundadora y CEO de Maldita, una fundación española sin ánimo de lucro dedicada a la verificación de datos. Jiménez explica que el nuevo modelo de pago tampoco contribuye a generar claridad. De hecho, las publicaciones de los usuarios que tienen una suscripción premium —que pagan ocho euros al mes a cambio de tener el check azul, entre otros servicios— son impulsadas por la plataforma y aparecen entre los primeros tuits cuando se buscan informaciones sobre la guerra. “Las cuentas con Twitter Blue se posicionan mejor en el muro y en respuestas, y eso los desinformadores lo saben y lo aprovechan”, critica Jiménez. Antes de la llegada de Musk, la verificación estaba reservada a las cuentas de personas conocidas e influyentes, entre ellas también a los periodistas que trabajaban en medios conocidos y con muchos seguidores, lo que dotaba de veracidad las noticias que compartían.

Desde el verano, el sistema de moderación de la plataforma depende de las “notas de la comunidad”, unos comentarios escritos y valorados por un grupo de voluntarios que han sido previamente aprobados. Las notas se publican después de alcanzar un cierto umbral de votos útiles de “personas con diferentes puntos de vista”, según explica X, pero no aclara ni el criterio que se utiliza para formar parte de esta comunidad, ni cómo se eligen las publicaciones que es necesario verificar. La plataforma solo publica las notas que han recibido suficientes votos a favor por parte de usuarios que habitualmente no están de acuerdo en sus valoraciones, con el fin de garantizar transversalidad ideológica. Una vez en abierto, la nota puede seguir siendo puntuada, incluso por usuarios no registrados que la vean; también pasa que una nota ya publicada acabe por desaparecer posteriormente.

Advertisement

En una publicación de la cuenta Community Notes, la empresa reconoce haber difundido más de 500 notas sobre el conflicto palestino-israelí. También afirman haber eliminado cuentas afiliadas al grupo terrorista Hamás que habían sido creadas recientemente y que estaban actuando “contra decenas de miles de publicaciones por compartir medios gráficos, discursos violentos y conductas de odio”.

Vídeos y fotos de otros conflictos

En los últimos días, sin embargo, en lugar de encontrarse con información verificada, los usuarios de X han presenciado una cantidad sin precedentes de imágenes y vídeos sacados fuera de contexto que no se corresponden a lo que está pasando en Gaza e Israel. Por ejemplo, se hizo viral un vídeo que pretende mostrar a un militante de Hamás disparando un arma montada en el hombro y atacando a un helicóptero israelí. Sin embargo, como señaló el periodista de la BBC Shayan Sardarizade en un hilo que recopila mentiras sobre el conflicto, se trata de un fragmento del videojuego Arma 3. Sardarizade asegura que en X “siempre hay mucha desinformación durante los eventos importantes”, pero que “la avalancha de publicaciones falsas de los últimos días, muchas de ellas difundidas a través de Twitter Blue, es otro nivel”.

También los vídeos de unos niños israelíes en jaulas secuestrados por Hamás son falsos. El equipo de Maldita ha rastreado la procedencia de las imágenes procedentes de TikTok —ya no están presentes en esta plataforma, pero siguen en X— demostrando que el vídeo fue compartido días antes de que Hamás lanzara su ofensiva sobre Israel. Otros bulos que están corriendo como la pólvora son los vídeos de bombardeos y derrumbes de edificios de otras guerras, que se están reutilizando para que parezca que han sido grabados estos días.

El mismo Elon Musk no ha hecho más que empeorar la situación. Como viene haciendo habitualmente desde que compró Twitter, el empresario recomendó seguir la información sobre los ataques de Hamás y la guerra de Israel contra la milicia islamista a través de cuentas que se ha demostrado que difundían contenido falso. “Para seguir la guerra en tiempo real, @WarMonitors y @sentdefender son buenos”, escribió Musk en una publicación el domingo por la mañana en la cual invitaba sus 150 millones de seguidores a aportar más sugerencias.

Ambas cuentas difundieron en mayo la mentira de que había habido una explosión cerca de la Casa Blanca, mientras que la cuenta @WarMonitors suele publicar comentarios antisemitas en X, como señalaron diferentes usuarios debajo de la publicación de Musk. Por ejemplo, el año pasado la cuenta contestó a un mensaje del rapero Kanye West (ahora conocido como Ye) hablando de una “abrumadora mayoría de las personas en los medios y los blancos zin0nistas”. Musk eliminó su recomendación poco después, aunque en el poco tiempo que estuvo publicada alcanzó más de 11 millones de visualizaciones. El mismo día, Musk intentó corregir el error con otro tuit: “Como siempre, trate de mantenerse lo más cerca posible de la verdad, incluso en el caso de cosas que no le gusten”.

La desinformación generalizada que está circulando en X no ha pasado desapercibida tampoco a la Unión Europea. En una carta urgente publicada en X este martes, el comisario de Mercado Interior y Servicios, Thierry Breton, advirtió de que, tras los ataques de Hamás contra Israel, la red social se está utilizando para difundir noticias falsas y contenidos ilegales. “Tenemos informes de fuentes cualificadas que avisan de contenido potencialmente ilegal que circula en su servicio, pese a los avisos urgentes de las autoridades pertinentes”, dice la misiva de Breton, una de las voces más duras contra Musk y los incumplimientos constantes de Twitter. Bajo la dirección del empresario, la compañía abandonó el código voluntario contra la desinformación para cumplir con las normas comunitarias que dictan que las empresas de redes sociales deben responder a las quejas sobre contenido ilegal en un plazo de 24 horas.

La respuesta de Musk al comisario no tardó en llegar: “Nuestra política es que todo sea un código abierto y transparente, un enfoque que sé que la UE apoya. Enumere las violaciones en X a las que alude para que el público pueda verlas”. Al día siguiente, el perfil de Breton amanecía con un tuit irónico en el cual compartía su recién estrenada cuenta en Bluesky, la red social creada por un antiguo director ejecutivo de Twitter, Jack Dorsey.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement

Continue Reading
Advertisement

Tecnología

La UE alarga las negociaciones para acordar la primera gran ley de inteligencia artificial del mundo | Tecnología

Published

on

La Unión Europea acaricia la posibilidad de convertirse en la primera región del mundo en tener una ley completa para regular la Inteligencia Artificial (IA). Pero tras más de 18 horas de maratonianas negociaciones, todavía no se han logrado cerrar todos los puntos, aunque ya hay acuerdo sobre uno de los más espinosos: cómo regular los modelos fundacionales en los que se basan sistemas como el ChatGPT y que, aunque son considerados fundamentales en la evolución de la tecnología, también generan serias dudas por su capacidad disruptiva.

“Las negociaciones continúan”, indicaban de forma coincidente fuentes próximas a las negociaciones. Las ruedas de prensa convocadas para presentar los resultados a primera hora de la mañana han sido por el momento aplazadas, en una muestra, sin embargo, de la voluntad de apurar los plazos para lograr salir con un acuerdo para la ley bajo el brazo.

Según las fuentes, el obstáculo fundamental para que los negociadores —representantes de los Estados y de la Eurocámara, con la Comisión Europea— lancen fumata blanca tras una reunión que comenzó el miércoles a las 15.00 a puerta cerrada es otro de los principales escollos en todo el proceso de discusión de la ley: la regulación de la vigilancia biométrica en tiempo real en espacios públicos mediante sistemas como el reconocimiento facial, una de las líneas rojas del Parlamento Europeo, preocupado por la posibilidad de abusos de los derechos fundamentales de los ciudadanos por parte de los Estados a la hora de usar estas tecnologías.

Advertisement

Del mandato negociador de la Eurocámara salió la decisión de prohibir o restringir al máximo los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. Los Estados buscan ampliar estas excepciones, y ahí iban a topar, según advirtió la víspera el eurodiputado Brando Benifei, participante en las negociaciones a tres bandas (los denominados trílogos), con una línea roja clara.

La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

“Los gobiernos quieren una larga lista de excepciones a la aplicación que no vamos a aceptar”, aseguró el italiano en un encuentro con periodistas horas antes de encerrarse en las discusiones, a las que llegó con el mandato de mantener la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos.

“Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, según Benifei, que se dijo dispuesto a encontrar un “compromiso” en la materia, como en “casos específicos” de vigilancia policial, pero subrayó que para ello se requerían “salvaguardias” muy robustas y un control de las mismas que, en cualquier caso, no pueden ser ejercidas por los propios Estados. “No vamos a permitir que los gobiernos controlen ellos mismos si respetan la ley, esto es muy, muy importante para nosotros (…) y nunca vamos a aceptar una desviación y no tener un control serio”, adelantó.

Participantes en las negociaciones, como el comisario de Mercado Interior, Thierry Breton, enviaron durante la madrugada mensajes en las redes sociales mostrando una negociación activa en una sesión calificada de “ultramaratón”. Las discusiones sí han permitido ya, de acuerdo con las fuentes consultadas, superar el otro gran obstáculo para un acuerdo provisional sobre la ley —que todavía deberá ser ratificada por el Consejo de la UE y la Eurocámara antes de poder entrar en vigor, como pronto a finales de 2026— , la cuestión de la regulación de los modelos fundacionales, sobre todo aquellos más potentes.

Advertisement

Más que el “qué”, el pulso giraba en torno al “cómo”, explicaban fuentes próximas de la negociación en vísperas de la misma. Países como Alemania, Francia e Italia se habían opuesto en las últimas semanas a, como buscaba la Eurocámara, fijar las obligaciones por ley y abogaban por una mayor autorregulación —mediante códigos de conducta, eso sí, obligatorios— de los desarrolladores. El argumento usado era no trabar la innovación y competitividad en un sector en el que Europa no quiere quedarse atrás frente a sus grandes rivales, Estados Unidos y China.

Pero los eurodiputados, preocupados por la capacidad de estas nuevas tecnologías de afectar derechos fundamentales de los ciudadanos, habían puesto líneas rojas y advertido de su intención de abandonar las negociaciones —lo que habría postergado fuertemente toda la ley, que se espera pueda ser totalmente implementada a finales de 2026— si no se fijaban suficientes salvaguardias. Sobre todo para los modelos fundacionales más potentes, los considerados de “riesgo sistémico” porque tienen capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”, según la definición aceptada por todas las partes.

El meollo, explicaba también Benifei en vísperas de las negociaciones, era la forma en que se “garantiza” para estos modelos más potentes “que lo que hagan los desarrolladores de esos modelos sea obligatorio y se pueda exigir su cumplimiento”. La Eurocámara, señaló, quería un texto lo suficientemente claro para asegurarse de que “no hay manera de escapar a esas obligaciones”, incluso aunque fueran incluidas en un código de conducta como pedían los Estados, pero que, en cualquier caso, “que no sea un compromiso voluntario de facto, sino que se pueda hacer cumplir”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement

_

Continue Reading

Tecnología

Qué pasa con nuestros datos cuando morimos | Tu Tecnología | El País

Published

on

La muerte es esa incómoda certeza que nadie quiere abordar y que siempre llega en un mal momento. Las últimas voluntades pueden servir para dejar los asuntos físicos y terrenales bien atados, pero ¿qué sucede con nuestros mensajes de WhatsApp, perfiles en Instagram y otras cuentas en redes sociales, y los datos que hayamos almacenado o tengamos en correos electrónicos? La actividad en internet del finado permanece en la nube, inaccesible y de forma indefinida, para sus familiares y allegados.

Los tiempos han cambiado y la sociedad actual vive en dos planos: el físico y el digital. Y mientras es habitual dejar por escrito un documento con las últimas voluntades y reparto de bienes en caso de fallecimiento, pocas veces se considera la importancia de gestionar nuestro legado digital. Las redes sociales, aplicaciones de mensajería, correos electrónicos… todo permanece activo y en la nube, y en algunas ocasiones, con un contenido comprometedor. Borja Adsuara, abogado experto en derecho digital, se refiere a la regulación de este contenido como “herencia digital, el conjunto de bienes y servicios digitales que se deja cuando uno fallece”.

¿Quién tiene el control?

Se trata de un asunto complejo, puesto que las compañías que ofrecen servicios en línea —como Google, Apple o Facebook, entre otras— cuentan con unas políticas de privacidad muy estrictas que regulan el acceso a las cuentas de usuarios fallecidos. Uno de los casos más notorios a este respecto tuvo lugar en Alemania en 2012, cuando una adolescente perdió la vida arrollada por un tren y sus padres demandaron a Facebook las claves de acceso a su cuenta para determinar las posibles causas. Tuvo que ser un juez quien, años más tarde, les diera la razón y obligara a la firma de Mark Zuckerberg a entregarles la contraseña. “En ese caso fue el juez quien sentenció que tenía más valor en la balanza saber qué había ocurrido que la privacidad de la persona”, explica Adsuara.

Advertisement

Algunas permiten a familiares cercanos solicitar el cierre de la cuenta, pero el acceso completo a la información es raramente concedido sin consentimiento explícito del titular original. Esto es, el propietario de la cuenta debe nombrar en vida a un heredero de la cuenta, o bien especificar que se desea que la cuenta perviva, a modo de homenaje, y para ello, determinar qué contacto la gestionará. Estas personas reciben la denominación de contactos de legado, que serán las responsables de mantener la cuenta viva respondiendo o moderando mensajes y subiendo fotos de recuerdo ocasionalmente. En este sentido, si no se ha realizado una preparación adecuada, este laberinto de regulaciones deja a las familias en una posición incómoda y, a menudo, emocionalmente agotadora.

Problemas éticos y jurídicos

La ley no está del todo adaptada a este nuevo paradigma. Acceder a una cuenta sin permiso explícito es ilegal en muchos lugares, independientemente de las buenas intenciones. Esto no solo pone a los seres queridos en una situación difícil, sino que, además, plantea preguntas éticas sobre la privacidad y la propiedad de la información digital post mortem. Otro caso muy mediático tuvo lugar tras el trágico tiroteo de San Bernardino: el FBI solicitó a Apple el desbloqueo del iPhone del autor de los disparos y la compañía de Cupertino se negó en redondo, aduciendo que primaba más la privacidad de sus clientes que la difusión del posible contenido del dispositivo.

Google, el gran contenedor de información personal de la red, contempla también este legado póstumo, y quienes quieran dejar todo bien atado, pueden comenzar a nombrar un administrador de cuenta inactiva, un responsable de decir qué sucede con la información del fallecido. En caso de que no se haya nombrado esta figura, la firma californiana permite a los allegados eliminar o gestionar la cuenta a través de un formulario, pero este proceso es más complejo, puesto que chocan, como hemos visto, la privacidad del propietario y la voluntad de sus familiares.

En este sentido, Adsuara recuerda que parte de este contenido puede afectar a la imagen del fallecido; pueden hallarse relaciones con terceros no conocidas o material comprometedor: “Por ejemplo, si accedes a la cuenta de Twitter de tu mujer o marido y te encuentras mensajes directos de contenido íntimo de una tercera persona…”, explica. Brigita Kavaliauskaite, responsable de comunicación de la firma de seguridad NordVPN, añade: “En España no se ha aprobado ninguna ley específica que regule el olvido digital post mortem total, pero sí existe la Ley 10/2017 sobre voluntades digitales. Sin embargo, la legislación necesita ser más amplia, para que se recojan todas las circunstancias”.

Preparación y previsión

Para evitar estos problemas, es necesario hacer una planificación detallada. El primer paso es realizar un inventario de todas las cuentas y contraseñas. Este catálogo debe ser accesible para alguien de confianza en caso de fallecimiento. “Lo mejor es designar a una persona de confianza que pueda indicar a la app o red social que se está habilitado para la gestión de esta información”, explica Adsuara. Otros servicios en la nube, como Dropbox, también contemplan el escenario del fallecimiento, permitiendo a los allegados la solicitud de acceso a la cuenta del finado.

Advertisement

Es igualmente prudente redactar un testamento digital con instrucciones explícitas sobre cómo debe manejarse la información en línea. Con todo, este experto advierte del riesgo de confundir términos: no es lo mismo una herencia firmada en el notario que una digital. La segunda se refiere “a quién tiene derecho a acceder a mis cuentas de correo o redes sociales, por ejemplo”.

Nuestra vida digital es una extensión de nuestra existencia física, cargada de recuerdos, datos personales y conexiones sociales. Habrá cosas que queramos dejar en el recuerdo, pero otras que deseamos que permanezcan inaccesibles y se vayan con nosotros. Un diario digital, conversaciones con amigos o conocidos por WhatsApp… Este tipo de contenido no tiene más valor que el personal, pero puede dañar la imagen póstuma del fallecido. ¿Cómo asegurarse de que nadie tendrá acceso a ella?

Solo hay dos formas de asegurarse la inaccesibilidad de esta información: eliminarla, o disponer de un cifrado de extremo a extremo, de forma que nadie, ni siquiera el proveedor del servicio, sea capaz de acceder al contenido. Servicios como Nordlocker o Vault de Dropbox garantizan que nadie que no disponga de las claves podrá acceder jamás a lo almacenado; tanto es así, que son varias las advertencias que el propietario debe conceder reconociendo la pérdida de los datos en caso de no conocer las claves.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

Google lanza Gemini, un modelo de inteligencia artificial capaz de superar a los humanos en comprensión del lenguaje multitarea | Tecnología

Published

on

La carrera por la inteligencia artificial (IA) se ha convertido en una prueba de velocidad. A los avances en ChatGPT, que ya va por su cuarta versión, y los consecutivos anuncios de las grandes multinacionales de sus propios sistemas, Google ha respondido este miércoles con el lanzamiento de Gemini, una plataforma de inteligencia artificial multimodal que puede procesar y generar texto, código, imágenes, audio y vídeo desde distintas fuentes de datos. La versión Ultra, “disponible a comienzos del próximo año”, según ha anunciado Eli Collins, vicepresidente de productos en Google DeepMind, supera a los humanos en comprensión masiva del lenguaje multitarea (MMLU, por sus siglas en inglés), una referencia de evaluación creada a partir de 57 materias de ciencias, tecnología, ingeniería, matemáticas (STEM), humanidades y ciencias sociales.

“Gemini es nuestro mayor y más capaz modelo de IA”, asegura Collins, quien explica que está “inspirado en la forma en que las personas entienden el mundo e interactúan con él”. “Se percibe más como un colaborador útil y menos como una pieza inteligente de programación”, afirma.

Durante la presentación, Gemini ha sido capaz de identificar una forma geométrica, analizar la formulación para hallar su área y descubrir un error en la misma para proponer y explicar un resultado acertado al problema. De esta forma, es capaz de arrojar resultados a partir de datos de imagen, texto alfanumérico y voz. También ha identificado diferentes formas y dibujos, algunos a partir solo de puntos dispersos, y proponer usos de las figuras o de los objetos presentados o elaborar un relato a partir de propuestas alternativas o desarrollar gráficos actualizados con la información buscada por la propia plataforma.

Advertisement

Según el vicepresidente de DeepMind, ha obtenido más de un 90% de puntuación en MMLU, el sistema de evaluación para comprensión del lenguaje multitarea. “Es el primer modelo de IA que supera a los expertos humanos en este punto de referencia estándar de la industria”, afirma. Gemini también ha aprobado (59,4%) el examen de “comprensión de tareas multimodales que incluyen demandas que requieren un razonamiento deliberado”.

Gemini no es una aplicación sino la plataforma para llevar este último modelo de inteligencia artificial a los servicios existentes, desde Bard, el chat de Google competidor de ChatGPT, hasta el buscador o los gestores de servicios o los móviles con Android o los centros de datos a gran escala.

Para esto, estarán disponibles tres “tamaños” de Gemini: el Nano, que ya se puede usar por parte de los desarrolladores de Android; el Pro, que estará disponible a partir del 13 de diciembre y el Ultra, que se podrá implementar a partir de principios de año en una fecha aún por determinar. Los desarrolladores y clientes empresariales podrán acceder a Pro a través de la API Gemini en Google AI Studio o Vertex AI. A través de AICore, los desarrolladores de Android también podrán crear aplicaciones con Nano.

Bard

Sissie Hsiao, responsable de asistentes y Bard ha anunciado que Gemini se incorpora ya a este último chat en inglés para 180 países y se extenderá al resto de idiomas progresivamente, aunque ha admitido que tendrán que confirmar que su desarrollo es compatible con la inminente normativa europea sobre inteligencia artificial, que incluye estas plataformas de diálogo entre sus desarrollos regulables. Y con su inclusión en Bard, se extenderá a todas las aplicaciones compatibles.

El proceso será en dos fases: la primera utilizará una versión de Pro, que dotará al chat de “razonamiento más avanzado, planificación, comprensión y otras capacidades”, según Hsiao; y la segunda, a principios del próximo año, con mejoras que culminarán con la adopción de la versión Ultra.

Advertisement

Gemini ha nacido como multimodal, es decir, no se ha entrenado con diferentes modalidades de datos y se han unificado luego las capacidades diferenciadas, sino que su programación ya parte de la diversidad de fuentes. Según explica Collins, “esto ayuda a Gemini a comprender sin problemas todo tipo de entradas mucho mejor que los modelos existentes y sus capacidades son de última generación”.

También es capaz de programar incluyendo desarrollos complejos. En este sentido, Amin Vahdat, vicepresidente en Google Cloud, asegura: “En el futuro, veremos a los programadores haciendo uso de modelos de IA de alta capacidad como herramientas colaborativas que ayudan con todo el proceso de desarrollo de software, desde el razonamiento sobre los problemas hasta la asistencia con la implementación, el rendimiento y las capacidades”.

Sobre la seguridad, Google afirma que Gemini supera “las evaluaciones más completas de todos los modelos hasta la fecha”. La compañía asegura que ha sometido a la plataforma a todos los riesgos existentes y potenciales y que mantiene un examen continuo que incluye “pruebas de estrés”. También se han aplicado los principios de IA de la propia compañía, que establecen las normas éticas de sus desarrollos.

Pese a los avances, Gemini no es infalible, según reconocen sus responsables. Admiten que arrojará errores y alucinaciones (respuestas de apariencia segura no justificada por datos). “Hemos progresado mucho y Gemini es nuestro mejor modelo en ese sentido, pero todavía es, diría yo, un problema de investigación sin resolver”, admite Collins.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.