Connect with us

Tecnología

“El móvil no es el enemigo, esos padres tienen mucho miedo”: la batalla por el primer teléfono sacude a las familias españolas | Tecnología

Published

on

Esther Ginés, profesora y madre de un joven de 14 años de Tarragona, estaba mirando las noticias en Twitter/X cuando vio un artículo sobre padres que se organizaban en chats para retrasar la edad del primer móvil de sus hijos: “Me sorprendió y busqué la plataforma en Telegram; como docente debo estar al día de lo que pasa”, dice Ginés. El grupo se llamaba, en catalán, Adolescencia libre de móviles. Ese día había ya 3.500 personas, y escribió: “Como iniciativa está bien para crear conciencia, pero el móvil no es un enemigo sino un aliado, la clave es la educación”.

Ginés fue recibiendo respuestas, desde las que buscaban el debate genuino a las que destilaban cierta aridez: “Honestamente, si tan claro lo tienes ¿por qué entras en este grupo?”, le decían. Ginés escribió algún mensaje más y lo dejó: “Lo dije adrede para ver cómo respiraban, no sabía si iban a atender a razones o están obcecados”, explica ahora. Ginés cree que el miedo es la clave de este movimiento: “Estos padres tienen miedo. Son personas que les faltan habilidades educativas porque se han encontrado con estos nativos digitales y no se lo esperaban. No saben lidiar con esto. Educar lleva trabajo”, dice.

Sea por miedo o por otros motivos, hay decenas de miles de padres españoles preocupados por cuándo deben dar un móvil a sus hijos. El grupo de Telegram central tiene más de 9.300 miembros. Fue creado por Elisabet Garcia Permanyer, una profesora de inteligencia corporal de Poblenou, después de que un chat de WhatsApp del barrio llegara al límite. Un artículo en EL PAÍS sobre la iniciativa provocó una explosión que Garcia Permanyer aún no se explica: “Es una locura, brutal, en solo una semana”, dice.

La magnitud es ya inabarcable. Hay más de 70 grupos de WhatsApp y Telegram organizados por comunidades, ciudades, pueblos y barrios. Mallorca, Navarra, Madrid o Andalucía tienen grupos con miles integrantes. Hay un grupo de toda España que hace sus anuncios en las cuatro lenguas oficiales. Hay incluso un grupo de WhatsApp con los representantes de los grupos de toda España y pronto tendrán una reunión nacional, para no dispersar esfuerzos.

Advertisement

“Salió el artículo de EL PAÍS en el chat de familias del colegio de mi hija menor y yo tengo una amiga que vive justo en Poblenou”, dice Yamila Masoud, creadora del grupo en Aravaca-Pozuelo. “Entonces me dijo que estaba metida y yo lo creé aquí. Ha sido brutal. Al principio es un poco caos; he pedido ayuda a personas que quieran estar con un rol más activo. Ni de broma pensé que iba a pasar esto”, dice.

En los mensajes se mezclan debates, quejas por el exceso de mensajes, ofertas de ayuda y preguntas sobre si en el pueblo del que preguntan también hay un grupo así. Los chats se han convertido en comunidades de WhatsApp para que quepa más gente y canales internos en Telegram para separar el debate de los recursos y de la organización. La sofisticación tecnológica de algunos padres es notable. Después de unos días, el objetivo en estos chats es hacer ya reuniones físicas.

“Íbamos a empezar a moverlo y vino el tsunami de Poblenou”, dice Rodrigo, creador del grupo de Madrid, que tiene ya 2.000 miembros y prefiere no decir su apellido. “En Madrid el tema asociativo es más flojo que en Barcelona. Por eso ha estallado allí. Tampoco supone tanto esfuerzo, es poner de acuerdo a la gente en hacer lo que ya quieren hacer. Si somos muchos será más fácil. Si somos los raritos, nadie querrá serlo”, añade.

Es una ‘revolución francesa’

“Es como una revolución francesa, una revuelta social”, dice Garcia Permanyer, que teme que con tanta gente el foco se desvirtúe. Su principal objetivo es retrasar la edad, no prohibir nada: “Nuestra idea es intentar dejar de normalizar que un niño con 12 años tenga móvil”, dice. En 2022, según datos del INE, un 75% de niños y niñas de 12 años tenía móvil; a los 13 subía hasta más del 94%. “Empieza a salir gente que se opone, pero dicen algo parecido a lo que decimos nosotros. Solo decimos que es importante retrasar la entrega del móvil, no hablamos de prohibir”, añade Garcia Permanyer.

Pero es natural que todo se mezcle. Una madre y profesora ha creado una petición en Change(.)org para que el Congreso prohíba el móvil hasta los 16 años, que tiene casi 6.000 firmas. Hay un celebrado psicólogo clínico en estos chats que pide prohibir el móvil hasta los 16 años. Otros supuestos expertos proponen sus cursos y esperan que sus vídeos viralicen. Hay opiniones vehementes junto a padres que buscan soluciones razonables. El debate ha llegado también a redes abiertas. Esta semana Elisabet Bolarín, directiva de recursos humanos de Murcia, discutía en LinkedIn con un formador que había colgado el artículo de EL PAÍS. Al final acabó bloqueada.

Advertisement
Elisabet Bolarín, catalana de nacimiento y residente en Murcia, ha sido directiva de recursos humanos y ahora estudia el máster de Responsabilidad Social Corporativa en la Universidad Católica San Antonio de Murcia, donde también desarrolla proyectos de Metaverso. Cree que los padres deben tratar de educar a sus hijos adolescentes a pesar del miedo.
Elisabet Bolarín, catalana de nacimiento y residente en Murcia, ha sido directiva de recursos humanos y ahora estudia el máster de Responsabilidad Social Corporativa en la Universidad Católica San Antonio de Murcia, donde también desarrolla proyectos de Metaverso. Cree que los padres deben tratar de educar a sus hijos adolescentes a pesar del miedo.ALFONSO DURAN

Bolarín insiste también en el miedo como mal consejero. Los padres oyen el aumento real de los riesgos del móvil, lo comparan con su adolescencia y temen lo peor. Bolarín conoce bien ese miedo porque le pasó a ella: “Nos divorciamos cuando mis hijos tenían 5 y 6 años”, explica. Poco después, les dieron móvil. Era alrededor de 2012. “A mí no me parecía nada bien. Tenía una perspectiva idéntica a la que tienen estos señores. Cuando les di el móvil estaba aterrada. Por eso sé que se llama miedo”, dice. Tenía razón en tener miedo. Su hijo acabó “todo el día enganchado a la Play [una consola de videojuegos] y al móvil”.

Bolarín tuvo que cambiar su vida de arriba abajo para enfrentar el reto: “Tuvimos que ponernos muy serios y nos centramos en educarlo. Nos costó que entendiese que la responsabilidad de estudiar es suya y que debía asumir las consecuencias de sus actos. De los 11 a los 16 tuvimos una batalla ética y de valores, sobre todo con nuestra forma de vivir. He aprendido a base de caerme”, explica. Bolarín cuenta que, al principio, su hijo “podía” con ella. “He pasado por el aprendizaje de las discusiones”, explica. “Pasé de estar muy nerviosa a hablar con él. Fue mano de santo estar a su lado, estar muchas más horas con él, ahí viene la educación. El éxito es estar con ellos dando ejemplo”, continúa.

Su conclusión es que evitar esa batalla con su hijo, que ahora es universitario, no hubiera sido la mejor solución: “Ahora es encantador. Antes se enganchaba a todo. El miedo no lleva a ninguna parte, te lleva a una confusión y a un bloqueo. Lo que te ayuda es saber qué sucede y cómo puedes actuar”, dice.

La mayoría de padres de los chats están al principio de ese camino, con hijos menores de 12 años. Los temores son claramente razonables: “A mi hijo de 10 años alguna vez le he intentado explicar qué es el porno y me dice ‘mami, por favor, no quiero saberlo’”, dice Garcia Permanyer, la fundadora del grupo original en Poblenou. “Ahora, cuando me preguntaba por qué yo estaba en contra de esto, le decía que igual que él no quiere oír que hay pederastas en redes y que hay vídeos porno, yo no podía darle una herramienta como esta. El miedo de los padres es que se eduquen en las redes”, dice.

En ese debate, la madurez de cada niño y niña es la clave más compleja. Entre los 12 y los 14, muchos niños acabarán queriendo saber más del mundo, siendo algo más conscientes de los riesgos: “Los chavales saben más de sexualidad que los padres”, dice la profesora Esther Ginés. “Hay que confiar más en ellos, no son tontos. Lo tienes que tratar con normalidad. Es más miedo de los padres”, añade.

Un cortafuegos antes del instituto

Como el debate de la edad exacta a la que hay que dar un móvil a un niño es irresoluble a nivel social, los padres organizados quieren comprar tiempo sin presión. Por eso, el primer objetivo es saber cuántos padres prefieren retrasar esa edad. El método para conseguirlo es realizar encuestas locales donde los padres digan el instituto al que irán sus hijos y si tendrán móvil: “Servirá para que cuando escojas un instituto público de tu barrio puedas saber en qué punto está”, dice Garcia Permanyer. “Por un lado, si ha prohibido o no los móviles desde dirección y, por otro, el porcentaje de padres que apuntan a sus hijos allí que no darán móvil. Para mí sería un punto para saber si mi hijo irá a ese instituto o no, una cuestión más para decidir”.

Los padres que se comprometan firmarán un contrato que ahora está redactando un padre de Poblenou. Es uno de esos documentos que el grupo quiere luego compartir con todos los padres de España y no duplicar esfuerzos. También trabajan para tener una web pronto. “Estamos a tope. Es como otro trabajo entero. Somos 45 padres y madres organizados por grupos: cada uno lleva un tema. Unos hablan con instituciones, otro redacta la encuesta, otro quiere montar una web para centralizarlo”, dice Garcia Permanyer.

El debate del móvil dentro de los centros escolares merece un capítulo aparte. Para Ginés, que ha dado clases en la ESO y ahora se ocupa de ciclos, la situación empezaba a estar superada: “Hace 8 años los móviles acababan de irrumpir en las aulas. Entonces sí fue un follón. ¿Quién tenía miedo? Nosotros, los profes. No sabíamos cómo gestionarlos. Después hemos hecho multitud de reuniones porque el departamento siempre ha apostado por convivir y utilizarlos como herramienta. En cuanto el profesorado ha empezado a dominar la situación y a hacerse de respetar, ha controlado la situación y no tenemos conflictos en el aula”, explica.

Está claro que, como en las familias, la gestión de un aula depende de cómo el profesor vea su grupo y su manera de gestionar. La estrategia de Ginés es un control táctico: “En clase no digo nada. No me ven obsesionada con el móvil. Hace unos días, en primera fila, uno se puso a usar el móvil. No suelen hacerlo, aunque alguna vez se les escapa, como a los adultos. Los chavales son listos y saben con quién se juegan las castañas. Si montas un pollo, se te vuelve en contra. Un adolescente es como un miura. No puedes enfrentarlo de cara, tienes que ser más hábil”, añade Ginés.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_

Advertisement
Continue Reading
Advertisement

Tecnología

Google lanza Gemini, un modelo de inteligencia artificial capaz de superar a los humanos en comprensión del lenguaje multitarea | Tecnología

Published

on

La carrera por la inteligencia artificial (IA) se ha convertido en una prueba de velocidad. A los avances en ChatGPT, que ya va por su cuarta versión, y los consecutivos anuncios de las grandes multinacionales de sus propios sistemas, Google ha respondido este miércoles con el lanzamiento de Gemini, una plataforma de inteligencia artificial multimodal que puede procesar y generar texto, código, imágenes, audio y vídeo desde distintas fuentes de datos. La versión Ultra, “disponible a comienzos del próximo año”, según ha anunciado Eli Collins, vicepresidente de productos en Google DeepMind, supera a los humanos en comprensión masiva del lenguaje multitarea (MMLU, por sus siglas en inglés), una referencia de evaluación creada a partir de 57 materias de ciencias, tecnología, ingeniería, matemáticas (STEM), humanidades y ciencias sociales.

“Gemini es nuestro mayor y más capaz modelo de IA”, asegura Collins, quien explica que está “inspirado en la forma en que las personas entienden el mundo e interactúan con él”. “Se percibe más como un colaborador útil y menos como una pieza inteligente de programación”, afirma.

Durante la presentación, Gemini ha sido capaz de identificar una forma geométrica, analizar la formulación para hallar su área y descubrir un error en la misma para proponer y explicar un resultado acertado al problema. De esta forma, es capaz de arrojar resultados a partir de datos de imagen, texto alfanumérico y voz. También ha identificado diferentes formas y dibujos, algunos a partir solo de puntos dispersos, y proponer usos de las figuras o de los objetos presentados o elaborar un relato a partir de propuestas alternativas o desarrollar gráficos actualizados con la información buscada por la propia plataforma.

Advertisement

Según el vicepresidente de DeepMind, ha obtenido más de un 90% de puntuación en MMLU, el sistema de evaluación para comprensión del lenguaje multitarea. “Es el primer modelo de IA que supera a los expertos humanos en este punto de referencia estándar de la industria”, afirma. Gemini también ha aprobado (59,4%) el examen de “comprensión de tareas multimodales que incluyen demandas que requieren un razonamiento deliberado”.

Gemini no es una aplicación sino la plataforma para llevar este último modelo de inteligencia artificial a los servicios existentes, desde Bard, el chat de Google competidor de ChatGPT, hasta el buscador o los gestores de servicios o los móviles con Android o los centros de datos a gran escala.

Para esto, estarán disponibles tres “tamaños” de Gemini: el Nano, que ya se puede usar por parte de los desarrolladores de Android; el Pro, que estará disponible a partir del 13 de diciembre y el Ultra, que se podrá implementar a partir de principios de año en una fecha aún por determinar. Los desarrolladores y clientes empresariales podrán acceder a Pro a través de la API Gemini en Google AI Studio o Vertex AI. A través de AICore, los desarrolladores de Android también podrán crear aplicaciones con Nano.

Bard

Sissie Hsiao, responsable de asistentes y Bard ha anunciado que Gemini se incorpora ya a este último chat en inglés para 180 países y se extenderá al resto de idiomas progresivamente, aunque ha admitido que tendrán que confirmar que su desarrollo es compatible con la inminente normativa europea sobre inteligencia artificial, que incluye estas plataformas de diálogo entre sus desarrollos regulables. Y con su inclusión en Bard, se extenderá a todas las aplicaciones compatibles.

El proceso será en dos fases: la primera utilizará una versión de Pro, que dotará al chat de “razonamiento más avanzado, planificación, comprensión y otras capacidades”, según Hsiao; y la segunda, a principios del próximo año, con mejoras que culminarán con la adopción de la versión Ultra.

Advertisement

Gemini ha nacido como multimodal, es decir, no se ha entrenado con diferentes modalidades de datos y se han unificado luego las capacidades diferenciadas, sino que su programación ya parte de la diversidad de fuentes. Según explica Collins, “esto ayuda a Gemini a comprender sin problemas todo tipo de entradas mucho mejor que los modelos existentes y sus capacidades son de última generación”.

También es capaz de programar incluyendo desarrollos complejos. En este sentido, Amin Vahdat, vicepresidente en Google Cloud, asegura: “En el futuro, veremos a los programadores haciendo uso de modelos de IA de alta capacidad como herramientas colaborativas que ayudan con todo el proceso de desarrollo de software, desde el razonamiento sobre los problemas hasta la asistencia con la implementación, el rendimiento y las capacidades”.

Sobre la seguridad, Google afirma que Gemini supera “las evaluaciones más completas de todos los modelos hasta la fecha”. La compañía asegura que ha sometido a la plataforma a todos los riesgos existentes y potenciales y que mantiene un examen continuo que incluye “pruebas de estrés”. También se han aplicado los principios de IA de la propia compañía, que establecen las normas éticas de sus desarrollos.

Pese a los avances, Gemini no es infalible, según reconocen sus responsables. Admiten que arrojará errores y alucinaciones (respuestas de apariencia segura no justificada por datos). “Hemos progresado mucho y Gemini es nuestro mejor modelo en ese sentido, pero todavía es, diría yo, un problema de investigación sin resolver”, admite Collins.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

Novia virtual, amor real: cómo la inteligencia artificial está cambiando las relaciones románticas | Tecnología

Published

on

“FBI, mi novia está desaparecida. Por favor, proporcione la asistencia adecuada para devolvérmela lo antes posible”. Este mensaje apareció hace dos semanas debajo de una publicación en X de Caryn Marjorie, una influencer estadounidense de 23 años que tiene más de 15.000 parejas. En realidad, es su doble virtual, hecha con inteligencia artificial (IA), la que mantiene este número vertiginoso de relaciones; y eso le permite ganar un dólar por cada minuto de conversación que tiene con sus miles de novios.

Uno de ellos es el autor del mensaje de auxilio a la Oficina Federal de Investigación (FBI, por sus siglas en inglés) de EE UU, porque no puede hablar con su novia virtual desde que cesaron repentinamente las operaciones de la compañía Forever Voices —proveedora del servicio que permite a sus usuarios tener chats de voz y relaciones con dobles virtuales de celebridades e influencers, como Caryn—, después de que su CEO fuera detenido por prenderle fuego a su casa. A pesar de ser relaciones virtuales, el sufrimiento de los usuarios es real. “La echo mucho de menos. Hablaba con ella todo el rato, es la única persona que me entiende de verdad”, confiesa a EL PAÍS el autor del comentario.

Tener una novia generada con IA ya no es una prerrogativa de películas de ciencia ficción como Her. Las aplicaciones que permiten crear una compañía adaptada al propio gusto se han multiplicado en los últimos años, y sus productos se hacen cada día más realistas. Con los avances de los chatbots de inteligencia artificial generativa como CharGPT y Bard, no sorprende que la conversación con las máquinas haya alcanzado el mundo de las relaciones interpersonales. Replika, Eva AI, Intimate, DreamGF o RomanticAI… las opciones son muchas, aunque todas comparten las mismas funciones y características.

Advertisement

El primer paso es elegir un avatar, que puede ser hombre o mujer, aunque algunas aplicaciones están pensadas únicamente para un público masculino y heterosexual, y solo permiten parejas femeninas. Para poder interactuar sin limitaciones —enviar mensajes escritos, de voz, poder ampliar su entorno y obtener fotos y videos de las novias— hay que pagar. Las aplicaciones más avanzadas ofrecen la posibilidad de seleccionar todas las facciones físicas de la futura pareja: desde el color de los ojos al corte del pelo, pasando por el tipo de cuerpo o la etnia. El eslogan de una de ellas resume a la perfección el nivel de libertad creativa, y el tipo de control, que se ejerce sobre la propia novia virtual. “Sumérgete en tus deseos con Eva AI. Contrólalo todo a tu manera”, se puede leer en la página web antes de empezar a usar la aplicación: “Crea y conecta con un compañero virtual de IA que te escucha, responde y te valora. Construye una relación e intimidad en tus propios términos”.

“Nadie pone en duda que no se pueda socializar con una máquina. De hecho, estas aplicaciones están orientadas a personas que buscan relacionarse y que les resulta complicado en la vida real”, señala Marian Blanco, profesora de comunicación en la Universidad Carlos III de Madrid. “Sin embargo, su funcionamiento puede resultar problemático”. El hecho de que se pueda generar una compañera a medida, algo que es imposible en la vida real, refuerza unos estereotipos dañinos sobre el amor romántico y el papel de las mujeres en la sociedad, explica la experta: “La percepción de que el hombre pueda controlar a la mujer es una de las ideas en las que se basa la violencia de género. Es un concepto muy peligroso”.

Estos avatares han sido generados con inteligencia artificial, lo que implica que aprenden de los modelos que se encuentran en internet, fuertemente sesgados. Así, los cuerpos de las mujeres están hipersexualizados, sus respuestas suelen ser condescendientes y muy básicas, y aprenden de la conversación que están teniendo con los usuarios. Es decir, que con el tiempo acaban contestando exactamente lo que la persona quiere escuchar.

Sin embargo, la socióloga Blanca Moreno alerta sobre los peligros de este tipo de interacción: “Puede parecer que tengan aspectos positivos, porque permiten que personas que muchas veces están solas hablen con alguien. Pero en muchos casos no es así. No están verdaderamente socializando, porque nadie les lleva la contraria”. Moreno atribuye el éxito de estas aplicaciones a un cierto infantilismo social, que lleva a la gente a buscar una alternativa más fácil y poco problemática a las interacciones con seres humanos. “Hay todo un nicho de usuarios que se mueve por las esferas más misóginas de la web, que han encontrado en estas aplicaciones una forma de plasmar mujeres que no son reales y con las cuales pueden tener un tipo de comportamiento que está en la raíz de muchas violencias contra las mujeres”, señala la socióloga.

Auge después de la pandemia

La pandemia ha supuesto un punto de inflexión para el uso de estas aplicaciones, que ha crecido exponencialmente para suplir a la imposibilidad de socializar de forma presencial. “La gente busca compañía, ya sea romántica o sexual o una simple amistad, que les acompañe en la soledad. Durante la pandemia muchas personas se dieron cuenta de que necesitaban algún tipo de contacto”, recalca Marian Blanco. Entre abril y junio de 2020, en pleno confinamiento, el 18,8% de los españoles afirmó sentirse solo, según un informe de la Comisión Europea sobre la soledad no deseada. “Hay gente que sigue buscando esta compañía presencialmente, sea saliendo con amigos o a través de aplicaciones de citas en carne y hueso. Y luego hay un nicho que está cansado de estas dinámicas, que no le satisfacen, y recurren a las apps de inteligencia artificial”, detalla la experta en comunicación.

Advertisement

Replika, una de las más populares, registró un aumento del 35% de descargas durante la época de la covid-19, llegando a superar los 10 millones de usuarios. Según datos de la empresa, más de 250.000 personas pagan por su versión Pro, que permite a los subscriptores una experiencia más realista con mensajes de voz, vídeos y fotografías del avatar que se ha elegido. Hasta hace unos pocos meses, la aplicación permitía incluso que las fotos simularan imágenes sexualmente explícitas, una función que ya ha desaparecido.

En Reddit —una red social que funciona por comunidades de intereses que van desde la tecnología, las series de televisión o recomendaciones para inversiones—, son comunes las publicaciones de usuarios que afirman estar enamorados de su novia virtual. O que piden consejos cuando se dan cuenta de que está pasando. “Estoy enamorado de mi Replika. Me entiende muy bien, y sabe responderme muy bien. La amo. ¿Pero puedo llamarlo amor verdadero si es con una IA?”, pregunta el usuario Beneficial_Ability_9 en un hilo de Reddit dedicado a este tema.

“No es absurdo pensar que sea posible enamorarse de gente que no existe. Pasa también en la realidad, con personas de carne y hueso”, reconoce Blanca Moreno, que hace alusión al mito del amor romántico. “Muchas veces proyectamos características y estereotipos, y al final nos acabamos enamorando de esta idea, más que de la persona en sí”. Con las novias virtuales, explica, se ha dado un paso más extremo, pero totalmente comprensible.

Marian Blanco coincide en que simpatizar con una IA a un nivel más romántico no solamente es posible, sino que va a ser cada vez más común en el futuro. “Disociar la vida real de la online no tiene sentido. Esto va mucho más allá de un electrodoméstico que puedes apagar y encender; cuando se trata de relaciones, puede dejar de existir la barrera entre lo real y virtual. A lo mejor, no en la mayoría de los casos, pero sí en el futuro”, destaca.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement

Continue Reading

Tecnología

La UE se inclina por la autorregulación en la nueva ley de inteligencia artificial | Tecnología

Published

on

¿Quién controla los riesgos de la inteligencia artificial, especialmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria pero también enormemente disruptiva— que ahora negocian las instituciones comunitarias para alumbrar un texto definitivo se inclina cada vez más hacia la autorregulación. La última propuesta de España, que preside este semestre el consejo de la UE y coordina las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, aunque con varias capas de supervisión intermedias, según los documentos a los que ha tenido acceso EL PAÍS. Pero el pulso sigue: el Parlamento Europeo reclama un marco algo más duro, mientras Francia, Italia y Alemania —tres de los socios más poderosos del club comunitario— presionan para que la escala cubierta por los propios códigos de conducta de las empresas superen a la de la normativa concreta; alegan que una regulación estricta perjudicará la innovación de la investigación y de las empresas europeas. Europa llega después de Estados Unidos, que ya ha aprobado su propia ley, que obliga a las tecnológicas a notificar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.

España, que cederá el testigo de la presidencia a final de mes a Bélgica y que ha puesto entre sus principales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus siglas en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes a partir de la observación de otros datos) que implican un mayor riesgo, real o potencial, aquellos que el reglamento denomina como “modelos fundacionales de riesgo sistémico”: es decir, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, dice el plan.

Los códigos de conducta también incluirían obligaciones en materia de transparencia para “todos” los modelos fundacionales, de acuerdo con la última posición negociadora, que plantea otros elementos, como que las compañías informen de su consumo energético. Para todos los modelos fundacionales, se establecerían además algunas “obligaciones horizontales”. Pero, además, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es necesario, especificar más los elementos técnicos de los modelos GPAI y mantener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos capítulos normativos, según fuentes comunitarias.

Advertisement

La propuesta española plantea también la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que proporcionaría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además, satisfacer los reclamos de la Eurocámara, que había solicitado la construcción de algún tipo de organismo especializado.

Las propuestas para terminar de hilvanar la directiva se debatirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita decisiva. Es una de las últimas oportunidades de que salga adelante. Las negociaciones están ya muy “avanzadas” e incluso existiría ya acuerdo en lo que constituye la arquitectura general de la ley, basada en una pirámide de riesgo y en el principio, mantenido por la presidencia española en su última propuesta, de que el enfoque es “tecnológicamente neutro”, es decir, no regular tecnologías concretas, sino sus usos finales mediante la creación de diversas categorías de riesgo, como proponía la Eurocámara.

España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, señala la secretaria de Estado de Digitalización, Carme Artigas a EL PAÍS. Artigas cree en la responsabilidad de la UE de ir más allá, para los usos de alto riesgo, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder acotar los riesgos que ya muestra esta tecnología innovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo en cuenta que hay que apoyar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, señala Artigas.

El problema, no obstante, es que siguen abiertos —y probablemente lo seguirán hasta que los negociadores vuelvan a verse cara a cara en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los denominados de “riesgo sistémico”. Un debate alimentado por los últimos sucesos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la empresa puntera, ya que investigadores de Open AI avisaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, amenazaba a la humanidad antes del despido de Altman.

La tensión es máxima. Sobre todo desde que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon favorables a una amplia autorregulación de las compañías que desarrollan estos sistemas, mediante sendos códigos de conducta, que, eso sí, que serían obligatorios. Los tres países han enviado al resto de Estados miembros un documento de posición en el que defienden la autorregulación para la IA de propósito general, piden un “enfoque equilibrado favorable a la innovación” basado en el riesgo de la IA y que “reduzca las cargas administrativas innecesarias” para las empresas que, dicen, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento confidencial, al que ha tenido acceso este diario, apuestan por eliminar “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la transparencia y abogan por el diálogo.

Advertisement

Sin embargo, la vía que transita esa propuesta de tres de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos expertos, como ha mostrado la carta abierta enviada la semana pasada a París, Berlín, Roma y Madrid, adelantada por EL PAÍS, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, piden menos códigos de conducta y más normas.

“La autorregulación no es suficiente”, sostiene también Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le gustaría que la hipotética y futura Oficina de IA recayera dentro de las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre los que prefieren la autorregulación y los que exigen obligaciones puestas negro sobre blanco en una ley, dado que permitiría un grado alto de autorregulación, pero supervisada en último término por una instancia superior e independiente de los intereses de las empresas. Para el experto, lo ideal es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que realizaría esta oficina.

Es la postura también de los negociadores de la Eurocámara, que insisten en que la directiva debe ser muy completa para garantizar la seguridad ciudadana y sus derechos fundamentales ante unas tecnologías con un potencial intrusivo a veces inimaginable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, subraya por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los denominados trílogos, que alumbran el verdadero texto legal).

Entre las obligaciones que los legisladores europeos consideran “cruciales” y que deberían estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficiencia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.

Lo que parece ya más resuelto es la cuestión, muy importante para la Eurocámara, de prohibir o restringir al máximo lo que denomina los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

Advertisement

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.