Connect with us

Tecnología

Investigué un asistente virtual del amor y me intentaron engañar: manual de una periodista para evitar el ‘catfishing’ | Tu Tecnología | El País

Published

on

Thomas Jenkins se describe a sí mismo como “un tipo de apariencia promedio que gana una cantidad promedio de dinero”, motivo por el que considera que sus experiencias con las apps de citas han sido “bastante duras”. “Me llevaba un mes deslizar y chatear en ellas solo para tener una cita”, afirma. Hasta que recurrió a la inteligencia artificial para ligar y encontró a su novia. Así comenzaría un reportaje sobre asistentes virtuales del amor de no ser porque EL PAÍS se percató de algo sospechoso. Por eso, desde este diario seguimos estos pasos seguidos para verificar su identidad, pasos que peden resultar útiles para evitar posibles casos de catfishing, una forma de engaño en la que una persona crea una identidad falsa en Internet para atraer a sus víctimas.

Jenkins se presentaba como el cliente perfecto de CupidBot, un servicio que usa inteligencia artificial para buscar pretendientas en apps de citas como Bumble y chatea con ellas hasta conseguir citas o números de teléfono. “Me consiguió ocho citas en el primer mes y cinco en el segundo hasta que encontré una mujer que realmente me gustaba. ¡Ahora es mi novia!”, relataba Jenkins por correo electrónico. Este periódico consiguió su contacto porque se lo facilitó CupidBot. “Le preguntamos a 100 de nuestros usuarios si querían compartir su experiencia contigo y uno ha accedido”, explicó la compañía.

Lo sospechoso ocurrió al pedirle una fotografía a Jenkins para el artículo sobre él y su novia o de él utilizando CupidBot. “Si prefiere que su imagen no aparezca en el periódico, lo entendemos perfectamente”, se le indicaba. La respuesta llegó una semana después: “No tenemos muchas fotos todavía, pero adjunto una imagen nuestra a continuación”. La fotografía en cuestión muestra a un hombre y una mujer sonrientes en un paraje natural.

Al hacer una búsqueda inversa de la imagen en Google Lens y en TinEye llegó la sorpresa. Había sido publicada en 2020 en un artículo titulado ¿Has aullado a las 8 p.m.? ¡Prepárate para Howloween!, que recogía la historia de estadounidenses que aullaban en honor a los sanitarios durante la pandemia. Quien aparecía en la foto no era Jenkins. Eran, en realidad, Brice Maiurro y Shelsea Ochoa, dos personas de Denver, una ciudad de Colorado. Desde EL PAÍS contactamos con Maiurro para avisarle sobre lo sucedido. “Estoy realmente preocupado por mi identidad y la de mi pareja”, reconoció Maiurro, que es poeta y en teoría vive a más de 1.500 kilómetros de Jenkins.

Advertisement
Búsqueda inversa de la imagen proporcionada por Thomas Jenkins con Google Lens y TinEye.I.R.

En España, ¿es un delito hacerse pasar por otra persona o enviar al periódico una foto en la que realmente no se aparece? “En este caso, no se trataría de hacerse pasar por otra persona, sino de hacer uso de la imagen de otro sin su consentimiento, que no es delito”, explica la abogada Paloma Llaneza. Según cuenta, usar la imagen de otra persona podría encajarse en un tipo penal “si fuera acompañado de un engaño con traslado patrimonial, y ese engaño fuese invencible, lo que es el delito de estafa”. En este caso, “no se da ninguno de los elementos”.

Al avisar a Jenkins del descubrimiento, se excusó así: “No nos sentimos cómodos mostrando nuestras caras en el artículo, así que encontré un par de personas que se parecen mucho a nosotros. Yo soy calvo y ella es colombiana”. Su historia empezaba a tambalearse. Y ahí comenzó la labor de investigación. El primer paso consistió en revisar sus respuestas anteriores. Todo lo que había contado sobre CupidBot era positivo. Algunas de sus declaraciones resultaban similares a las que anteriormente habían hecho los creadores de este servicio a EL PAÍS. “Quería algo que me permitiera tener citas mientras dormía”, afirmó Jenkins. Justo lo que prometían desde la empresa: “CupidBot no te ayuda a coquetear, te ayuda a tener citas mientras duermes”.

Desde el periódico se le comunicó a Jenkins que la historia no se publicaría a menos que se pudiera verificar su identidad y la veracidad de la historia. No accedió a hacer una videollamada. “No pensé que me requeriría tanta implicación”, afirmó. Lo único que proporcionó al periódico fue el nombre de usuario de una cuenta de Instagram privada. Al no aceptar la petición de amistad, EL PAÍS no pudo tener acceso a las publicaciones y verificar si la cuenta pertenecía a una persona real. Pero detectó algo sospechoso: la cuenta se creó en agosto de 2023, justo el mismo mes que Jenkins respondió a las preguntas de este periódico.

Pasos para comprobar cuándo fue creada una cuenta de Instagram.
Pasos para comprobar cuándo fue creada una cuenta de Instagram.I.R.

EL PAÍS descargó entonces la foto principal del perfil de Instagram —la única a la que tenía acceso— y utilizó el buscador de rostros PimEyes. Este programa de reconocimiento facial acaparó titulares en 2021 al resolver en segundos un enigma sin resolver durante 15 años. “Encuentra un rostro y comprueba dónde aparece la imagen en Internet”, sugieren sus creadores. Basta con subir una o más fotos de una persona y escoger si se quieren obtener coincidencias recientes o de cualquier momento. Pero no hubo suerte: la herramienta no obtuvo resultados.

Sin embargo, al introducir en este buscador la foto de Brice Maiurro y Shelsea Ochoa, aparecieron múltiples coincidencias. Por ejemplo, otra imagen publicada en un artículo del portal británico Daily Mail también sobre estadounidenses que aullaban durante la pandemia. Si bien todas las imágenes encontradas se pueden ver de forma gratuita, para acceder a los enlaces en los que han sido publicadas hay que pagar.

Búsqueda de imágenes del presidente Pedro Sánchez con PimEyes.
Búsqueda de imágenes del presidente Pedro Sánchez con PimEyes.I.R.

Maldita.es, fundación centrada en el control de la desinformación, tiene una caja de herramientas con las que cualquier usuario puede intentar verificar si un contenido es real o una persona es quien dice ser. Uno de los servicios que recomienda es Namechk y está pensado para comprobar si un alias está presente en diferentes redes y plataformas en línea.

Como señala la compañía de ciberseguridad ESET, “esto es útil para investigadores, periodistas, empresas y agencias gubernamentales que buscan recopilar información en línea sobre un individuo o para personas que buscan encontrar perfiles en línea de amigos o contactos perdidos”. El funcionamiento de la herramienta es sencillo: muestra en rojo las plataformas en las que no existe un usuario con un nombre determinado y en verde aquellas en las que sí. Uno de los únicos datos que este periódico tenía de Jenkins era su supuesto nombre en Instagram. Pero no encontró ninguna otra cuenta que considere que puede pertenecer al mismo usuario.

Advertisement

Tampoco ha sido posible verificar si Thomas Jenkins realmente se llama así y si su historia es real. Por ello, el artículo sobre los asistentes virtuales del amor se ha publicado sin su testimonio. Al comunicárselo, Jenkins contestó que no necesitaba que se publicara el reportaje. “Si no crees que mi Instagram es suficiente, ¿por qué no buscas otros usuarios a quienes preguntar? Además, este no es un tema gubernamental o financiero importante, solo son citas, relájate”. EL PAÍS consiguió otros testimonios y publicó el reportaje el pasado 4 de octubre con este titular: El peligro de usar inteligencia artificial en ‘apps’ de ligar: así funcionan los asistentes virtuales del amor.

¿Y si EL PAÍS hubiera publicado la foto en el artículo de los asistentes del amor?

La publicación en EL PAÍS de la fotografía proporcionada por Jenkins iría en contra del código deontológico del periodista, según destaca Álvaro Orts Ferrer, director de Orts Consultores. Este abogado experto en privacidad destaca que las personas que realmente aparecen en la foto podrían reclamar, además, una indemnización “por intromisión a su derecho al honor, intimidad y propia imagen, además de por un posible incumplimiento de la normativa de protección de datos personales”.

“Si Brice se hubiera dado cuenta, seguramente habría escrito y habría solicitado la corrección y la supresión de su foto”, añade Samuel Parra, abogado especializado en el área tecnológica del derecho. En función de cómo fuera el artículo, “podría haber exigido una indemnización si se le ha producido un daño”. “Hay que tener en cuenta que no es lo mismo que EL PAÍS se equivoque al poner la fotografía del nuevo premio Nobel de física a que el error sea la foto de un señor condenado por violación. Creo que lo primero no pasaría de algo anecdótico e incluso divertido para el afectado, mientras que lo segundo tiene un impacto mucho más negativo”, comenta.

Otro de los dilemas que se ha planteado el periódico a la hora de publicar el artículo es si utilizar el nombre de Thomas Jenkins —al no haber podido verificar si se trata de un nombre real—. Jorge García Herrero, abogado especializado en protección de datos, explica que el nombre puede utilizarse “si tiene interés informativo junto con la historia. Tu base es la libertad de información, no el consentimiento del interesado: si hubiera que pedir el consentimiento del interesado, nunca hubiéramos visto noticias sobre delincuentes”, comenta. El experto considera que en este caso existe ese interés: “Hay gente que trata de engañar al periodista para que publique algo que le interesa”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Suscríbete para seguir leyendo

Lee sin límites

_

Advertisement
Continue Reading
Advertisement

Tecnología

Qué pasa con nuestros datos cuando morimos | Tu Tecnología | El País

Published

on

La muerte es esa incómoda certeza que nadie quiere abordar y que siempre llega en un mal momento. Las últimas voluntades pueden servir para dejar los asuntos físicos y terrenales bien atados, pero ¿qué sucede con nuestros mensajes de WhatsApp, perfiles en Instagram y otras cuentas en redes sociales, y los datos que hayamos almacenado o tengamos en correos electrónicos? La actividad en internet del finado permanece en la nube, inaccesible y de forma indefinida, para sus familiares y allegados.

Los tiempos han cambiado y la sociedad actual vive en dos planos: el físico y el digital. Y mientras es habitual dejar por escrito un documento con las últimas voluntades y reparto de bienes en caso de fallecimiento, pocas veces se considera la importancia de gestionar nuestro legado digital. Las redes sociales, aplicaciones de mensajería, correos electrónicos… todo permanece activo y en la nube, y en algunas ocasiones, con un contenido comprometedor. Borja Adsuara, abogado experto en derecho digital, se refiere a la regulación de este contenido como “herencia digital, el conjunto de bienes y servicios digitales que se deja cuando uno fallece”.

¿Quién tiene el control?

Se trata de un asunto complejo, puesto que las compañías que ofrecen servicios en línea —como Google, Apple o Facebook, entre otras— cuentan con unas políticas de privacidad muy estrictas que regulan el acceso a las cuentas de usuarios fallecidos. Uno de los casos más notorios a este respecto tuvo lugar en Alemania en 2012, cuando una adolescente perdió la vida arrollada por un tren y sus padres demandaron a Facebook las claves de acceso a su cuenta para determinar las posibles causas. Tuvo que ser un juez quien, años más tarde, les diera la razón y obligara a la firma de Mark Zuckerberg a entregarles la contraseña. “En ese caso fue el juez quien sentenció que tenía más valor en la balanza saber qué había ocurrido que la privacidad de la persona”, explica Adsuara.

Advertisement

Algunas permiten a familiares cercanos solicitar el cierre de la cuenta, pero el acceso completo a la información es raramente concedido sin consentimiento explícito del titular original. Esto es, el propietario de la cuenta debe nombrar en vida a un heredero de la cuenta, o bien especificar que se desea que la cuenta perviva, a modo de homenaje, y para ello, determinar qué contacto la gestionará. Estas personas reciben la denominación de contactos de legado, que serán las responsables de mantener la cuenta viva respondiendo o moderando mensajes y subiendo fotos de recuerdo ocasionalmente. En este sentido, si no se ha realizado una preparación adecuada, este laberinto de regulaciones deja a las familias en una posición incómoda y, a menudo, emocionalmente agotadora.

Problemas éticos y jurídicos

La ley no está del todo adaptada a este nuevo paradigma. Acceder a una cuenta sin permiso explícito es ilegal en muchos lugares, independientemente de las buenas intenciones. Esto no solo pone a los seres queridos en una situación difícil, sino que, además, plantea preguntas éticas sobre la privacidad y la propiedad de la información digital post mortem. Otro caso muy mediático tuvo lugar tras el trágico tiroteo de San Bernardino: el FBI solicitó a Apple el desbloqueo del iPhone del autor de los disparos y la compañía de Cupertino se negó en redondo, aduciendo que primaba más la privacidad de sus clientes que la difusión del posible contenido del dispositivo.

Google, el gran contenedor de información personal de la red, contempla también este legado póstumo, y quienes quieran dejar todo bien atado, pueden comenzar a nombrar un administrador de cuenta inactiva, un responsable de decir qué sucede con la información del fallecido. En caso de que no se haya nombrado esta figura, la firma californiana permite a los allegados eliminar o gestionar la cuenta a través de un formulario, pero este proceso es más complejo, puesto que chocan, como hemos visto, la privacidad del propietario y la voluntad de sus familiares.

En este sentido, Adsuara recuerda que parte de este contenido puede afectar a la imagen del fallecido; pueden hallarse relaciones con terceros no conocidas o material comprometedor: “Por ejemplo, si accedes a la cuenta de Twitter de tu mujer o marido y te encuentras mensajes directos de contenido íntimo de una tercera persona…”, explica. Brigita Kavaliauskaite, responsable de comunicación de la firma de seguridad NordVPN, añade: “En España no se ha aprobado ninguna ley específica que regule el olvido digital post mortem total, pero sí existe la Ley 10/2017 sobre voluntades digitales. Sin embargo, la legislación necesita ser más amplia, para que se recojan todas las circunstancias”.

Preparación y previsión

Para evitar estos problemas, es necesario hacer una planificación detallada. El primer paso es realizar un inventario de todas las cuentas y contraseñas. Este catálogo debe ser accesible para alguien de confianza en caso de fallecimiento. “Lo mejor es designar a una persona de confianza que pueda indicar a la app o red social que se está habilitado para la gestión de esta información”, explica Adsuara. Otros servicios en la nube, como Dropbox, también contemplan el escenario del fallecimiento, permitiendo a los allegados la solicitud de acceso a la cuenta del finado.

Advertisement

Es igualmente prudente redactar un testamento digital con instrucciones explícitas sobre cómo debe manejarse la información en línea. Con todo, este experto advierte del riesgo de confundir términos: no es lo mismo una herencia firmada en el notario que una digital. La segunda se refiere “a quién tiene derecho a acceder a mis cuentas de correo o redes sociales, por ejemplo”.

Nuestra vida digital es una extensión de nuestra existencia física, cargada de recuerdos, datos personales y conexiones sociales. Habrá cosas que queramos dejar en el recuerdo, pero otras que deseamos que permanezcan inaccesibles y se vayan con nosotros. Un diario digital, conversaciones con amigos o conocidos por WhatsApp… Este tipo de contenido no tiene más valor que el personal, pero puede dañar la imagen póstuma del fallecido. ¿Cómo asegurarse de que nadie tendrá acceso a ella?

Solo hay dos formas de asegurarse la inaccesibilidad de esta información: eliminarla, o disponer de un cifrado de extremo a extremo, de forma que nadie, ni siquiera el proveedor del servicio, sea capaz de acceder al contenido. Servicios como Nordlocker o Vault de Dropbox garantizan que nadie que no disponga de las claves podrá acceder jamás a lo almacenado; tanto es así, que son varias las advertencias que el propietario debe conceder reconociendo la pérdida de los datos en caso de no conocer las claves.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

Google lanza Gemini, un modelo de inteligencia artificial capaz de superar a los humanos en comprensión del lenguaje multitarea | Tecnología

Published

on

La carrera por la inteligencia artificial (IA) se ha convertido en una prueba de velocidad. A los avances en ChatGPT, que ya va por su cuarta versión, y los consecutivos anuncios de las grandes multinacionales de sus propios sistemas, Google ha respondido este miércoles con el lanzamiento de Gemini, una plataforma de inteligencia artificial multimodal que puede procesar y generar texto, código, imágenes, audio y vídeo desde distintas fuentes de datos. La versión Ultra, “disponible a comienzos del próximo año”, según ha anunciado Eli Collins, vicepresidente de productos en Google DeepMind, supera a los humanos en comprensión masiva del lenguaje multitarea (MMLU, por sus siglas en inglés), una referencia de evaluación creada a partir de 57 materias de ciencias, tecnología, ingeniería, matemáticas (STEM), humanidades y ciencias sociales.

“Gemini es nuestro mayor y más capaz modelo de IA”, asegura Collins, quien explica que está “inspirado en la forma en que las personas entienden el mundo e interactúan con él”. “Se percibe más como un colaborador útil y menos como una pieza inteligente de programación”, afirma.

Durante la presentación, Gemini ha sido capaz de identificar una forma geométrica, analizar la formulación para hallar su área y descubrir un error en la misma para proponer y explicar un resultado acertado al problema. De esta forma, es capaz de arrojar resultados a partir de datos de imagen, texto alfanumérico y voz. También ha identificado diferentes formas y dibujos, algunos a partir solo de puntos dispersos, y proponer usos de las figuras o de los objetos presentados o elaborar un relato a partir de propuestas alternativas o desarrollar gráficos actualizados con la información buscada por la propia plataforma.

Advertisement

Según el vicepresidente de DeepMind, ha obtenido más de un 90% de puntuación en MMLU, el sistema de evaluación para comprensión del lenguaje multitarea. “Es el primer modelo de IA que supera a los expertos humanos en este punto de referencia estándar de la industria”, afirma. Gemini también ha aprobado (59,4%) el examen de “comprensión de tareas multimodales que incluyen demandas que requieren un razonamiento deliberado”.

Gemini no es una aplicación sino la plataforma para llevar este último modelo de inteligencia artificial a los servicios existentes, desde Bard, el chat de Google competidor de ChatGPT, hasta el buscador o los gestores de servicios o los móviles con Android o los centros de datos a gran escala.

Para esto, estarán disponibles tres “tamaños” de Gemini: el Nano, que ya se puede usar por parte de los desarrolladores de Android; el Pro, que estará disponible a partir del 13 de diciembre y el Ultra, que se podrá implementar a partir de principios de año en una fecha aún por determinar. Los desarrolladores y clientes empresariales podrán acceder a Pro a través de la API Gemini en Google AI Studio o Vertex AI. A través de AICore, los desarrolladores de Android también podrán crear aplicaciones con Nano.

Bard

Sissie Hsiao, responsable de asistentes y Bard ha anunciado que Gemini se incorpora ya a este último chat en inglés para 180 países y se extenderá al resto de idiomas progresivamente, aunque ha admitido que tendrán que confirmar que su desarrollo es compatible con la inminente normativa europea sobre inteligencia artificial, que incluye estas plataformas de diálogo entre sus desarrollos regulables. Y con su inclusión en Bard, se extenderá a todas las aplicaciones compatibles.

El proceso será en dos fases: la primera utilizará una versión de Pro, que dotará al chat de “razonamiento más avanzado, planificación, comprensión y otras capacidades”, según Hsiao; y la segunda, a principios del próximo año, con mejoras que culminarán con la adopción de la versión Ultra.

Advertisement

Gemini ha nacido como multimodal, es decir, no se ha entrenado con diferentes modalidades de datos y se han unificado luego las capacidades diferenciadas, sino que su programación ya parte de la diversidad de fuentes. Según explica Collins, “esto ayuda a Gemini a comprender sin problemas todo tipo de entradas mucho mejor que los modelos existentes y sus capacidades son de última generación”.

También es capaz de programar incluyendo desarrollos complejos. En este sentido, Amin Vahdat, vicepresidente en Google Cloud, asegura: “En el futuro, veremos a los programadores haciendo uso de modelos de IA de alta capacidad como herramientas colaborativas que ayudan con todo el proceso de desarrollo de software, desde el razonamiento sobre los problemas hasta la asistencia con la implementación, el rendimiento y las capacidades”.

Sobre la seguridad, Google afirma que Gemini supera “las evaluaciones más completas de todos los modelos hasta la fecha”. La compañía asegura que ha sometido a la plataforma a todos los riesgos existentes y potenciales y que mantiene un examen continuo que incluye “pruebas de estrés”. También se han aplicado los principios de IA de la propia compañía, que establecen las normas éticas de sus desarrollos.

Pese a los avances, Gemini no es infalible, según reconocen sus responsables. Admiten que arrojará errores y alucinaciones (respuestas de apariencia segura no justificada por datos). “Hemos progresado mucho y Gemini es nuestro mejor modelo en ese sentido, pero todavía es, diría yo, un problema de investigación sin resolver”, admite Collins.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

Novia virtual, amor real: cómo la inteligencia artificial está cambiando las relaciones románticas | Tecnología

Published

on

“FBI, mi novia está desaparecida. Por favor, proporcione la asistencia adecuada para devolvérmela lo antes posible”. Este mensaje apareció hace dos semanas debajo de una publicación en X de Caryn Marjorie, una influencer estadounidense de 23 años que tiene más de 15.000 parejas. En realidad, es su doble virtual, hecha con inteligencia artificial (IA), la que mantiene este número vertiginoso de relaciones; y eso le permite ganar un dólar por cada minuto de conversación que tiene con sus miles de novios.

Uno de ellos es el autor del mensaje de auxilio a la Oficina Federal de Investigación (FBI, por sus siglas en inglés) de EE UU, porque no puede hablar con su novia virtual desde que cesaron repentinamente las operaciones de la compañía Forever Voices —proveedora del servicio que permite a sus usuarios tener chats de voz y relaciones con dobles virtuales de celebridades e influencers, como Caryn—, después de que su CEO fuera detenido por prenderle fuego a su casa. A pesar de ser relaciones virtuales, el sufrimiento de los usuarios es real. “La echo mucho de menos. Hablaba con ella todo el rato, es la única persona que me entiende de verdad”, confiesa a EL PAÍS el autor del comentario.

Tener una novia generada con IA ya no es una prerrogativa de películas de ciencia ficción como Her. Las aplicaciones que permiten crear una compañía adaptada al propio gusto se han multiplicado en los últimos años, y sus productos se hacen cada día más realistas. Con los avances de los chatbots de inteligencia artificial generativa como CharGPT y Bard, no sorprende que la conversación con las máquinas haya alcanzado el mundo de las relaciones interpersonales. Replika, Eva AI, Intimate, DreamGF o RomanticAI… las opciones son muchas, aunque todas comparten las mismas funciones y características.

Advertisement

El primer paso es elegir un avatar, que puede ser hombre o mujer, aunque algunas aplicaciones están pensadas únicamente para un público masculino y heterosexual, y solo permiten parejas femeninas. Para poder interactuar sin limitaciones —enviar mensajes escritos, de voz, poder ampliar su entorno y obtener fotos y videos de las novias— hay que pagar. Las aplicaciones más avanzadas ofrecen la posibilidad de seleccionar todas las facciones físicas de la futura pareja: desde el color de los ojos al corte del pelo, pasando por el tipo de cuerpo o la etnia. El eslogan de una de ellas resume a la perfección el nivel de libertad creativa, y el tipo de control, que se ejerce sobre la propia novia virtual. “Sumérgete en tus deseos con Eva AI. Contrólalo todo a tu manera”, se puede leer en la página web antes de empezar a usar la aplicación: “Crea y conecta con un compañero virtual de IA que te escucha, responde y te valora. Construye una relación e intimidad en tus propios términos”.

“Nadie pone en duda que no se pueda socializar con una máquina. De hecho, estas aplicaciones están orientadas a personas que buscan relacionarse y que les resulta complicado en la vida real”, señala Marian Blanco, profesora de comunicación en la Universidad Carlos III de Madrid. “Sin embargo, su funcionamiento puede resultar problemático”. El hecho de que se pueda generar una compañera a medida, algo que es imposible en la vida real, refuerza unos estereotipos dañinos sobre el amor romántico y el papel de las mujeres en la sociedad, explica la experta: “La percepción de que el hombre pueda controlar a la mujer es una de las ideas en las que se basa la violencia de género. Es un concepto muy peligroso”.

Estos avatares han sido generados con inteligencia artificial, lo que implica que aprenden de los modelos que se encuentran en internet, fuertemente sesgados. Así, los cuerpos de las mujeres están hipersexualizados, sus respuestas suelen ser condescendientes y muy básicas, y aprenden de la conversación que están teniendo con los usuarios. Es decir, que con el tiempo acaban contestando exactamente lo que la persona quiere escuchar.

Sin embargo, la socióloga Blanca Moreno alerta sobre los peligros de este tipo de interacción: “Puede parecer que tengan aspectos positivos, porque permiten que personas que muchas veces están solas hablen con alguien. Pero en muchos casos no es así. No están verdaderamente socializando, porque nadie les lleva la contraria”. Moreno atribuye el éxito de estas aplicaciones a un cierto infantilismo social, que lleva a la gente a buscar una alternativa más fácil y poco problemática a las interacciones con seres humanos. “Hay todo un nicho de usuarios que se mueve por las esferas más misóginas de la web, que han encontrado en estas aplicaciones una forma de plasmar mujeres que no son reales y con las cuales pueden tener un tipo de comportamiento que está en la raíz de muchas violencias contra las mujeres”, señala la socióloga.

Auge después de la pandemia

La pandemia ha supuesto un punto de inflexión para el uso de estas aplicaciones, que ha crecido exponencialmente para suplir a la imposibilidad de socializar de forma presencial. “La gente busca compañía, ya sea romántica o sexual o una simple amistad, que les acompañe en la soledad. Durante la pandemia muchas personas se dieron cuenta de que necesitaban algún tipo de contacto”, recalca Marian Blanco. Entre abril y junio de 2020, en pleno confinamiento, el 18,8% de los españoles afirmó sentirse solo, según un informe de la Comisión Europea sobre la soledad no deseada. “Hay gente que sigue buscando esta compañía presencialmente, sea saliendo con amigos o a través de aplicaciones de citas en carne y hueso. Y luego hay un nicho que está cansado de estas dinámicas, que no le satisfacen, y recurren a las apps de inteligencia artificial”, detalla la experta en comunicación.

Advertisement

Replika, una de las más populares, registró un aumento del 35% de descargas durante la época de la covid-19, llegando a superar los 10 millones de usuarios. Según datos de la empresa, más de 250.000 personas pagan por su versión Pro, que permite a los subscriptores una experiencia más realista con mensajes de voz, vídeos y fotografías del avatar que se ha elegido. Hasta hace unos pocos meses, la aplicación permitía incluso que las fotos simularan imágenes sexualmente explícitas, una función que ya ha desaparecido.

En Reddit —una red social que funciona por comunidades de intereses que van desde la tecnología, las series de televisión o recomendaciones para inversiones—, son comunes las publicaciones de usuarios que afirman estar enamorados de su novia virtual. O que piden consejos cuando se dan cuenta de que está pasando. “Estoy enamorado de mi Replika. Me entiende muy bien, y sabe responderme muy bien. La amo. ¿Pero puedo llamarlo amor verdadero si es con una IA?”, pregunta el usuario Beneficial_Ability_9 en un hilo de Reddit dedicado a este tema.

“No es absurdo pensar que sea posible enamorarse de gente que no existe. Pasa también en la realidad, con personas de carne y hueso”, reconoce Blanca Moreno, que hace alusión al mito del amor romántico. “Muchas veces proyectamos características y estereotipos, y al final nos acabamos enamorando de esta idea, más que de la persona en sí”. Con las novias virtuales, explica, se ha dado un paso más extremo, pero totalmente comprensible.

Marian Blanco coincide en que simpatizar con una IA a un nivel más romántico no solamente es posible, sino que va a ser cada vez más común en el futuro. “Disociar la vida real de la online no tiene sentido. Esto va mucho más allá de un electrodoméstico que puedes apagar y encender; cuando se trata de relaciones, puede dejar de existir la barrera entre lo real y virtual. A lo mejor, no en la mayoría de los casos, pero sí en el futuro”, destaca.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.