Connect with us

Tecnología

Inteligencia artificial: Bruselas quiere que las plataformas digitales identifiquen el contenido generado por IA para abordar la desinformación

Published

on

En apenas unas semanas, la Comisión Europea ha pisado el acelerador en cuanto a la regulación de contenidos generados por inteligencia artificial (IA). En la medida en que existe cierta confusión acerca de quién propone qué y en qué formato y cuándo: ¿qué pasa si un código de conducta voluntario global, qué pasa si un acuerdo antes de la ley está en proceso de ratificación? AI se encuentra actualmente en negociación en el Parlamento Europeo, o, este lunes, un compromiso para identificar claramente desde las plataformas digitales, e “inmediatamente”, el contenido generado por IA para abordar la desinformación. A pesar del alboroto, una cosa está clara: Bruselas está muy preocupada por el potencial “lado oscuro” de estas nuevas tecnologías, especialmente la IA generativa como ChatGTP, y se está acabando el tiempo para intentar prevenirlo.

“Las nuevas tecnologías de IA (genéricas) pueden ser una fuerza para el bien y ofrecer nuevas posibilidades para una mayor eficiencia y expresión creativa. Pero también tienen un lado oscuro: crean nuevos riesgos y crean y propagan la disrupción. Tienen el potencial de tener consecuencias negativas para la sociedad. ”, explicó Vera Jourova, vicepresidenta de Valores y Transparencia de la Comisión Europea.

Por eso, ha declarado, quiere que la IA generativa tenga un camino “separado y dedicado” dentro de un código voluntario de buenas prácticas para hacer frente a la disrupción que se reforzó hace un año, pero que aún no ha sido reconocido como una fortaleza de IA generativa, y 44 empresas ya son firmantes, entre ellas Facebook, YouTube, Google o TikTok, aunque una de las más potentes, Twitter, acaba de abandonar.

Advertisement

Por un lado, Jourova propone a los firmantes del Código Contra la Desinformación que integren IA generativa en sus servicios, como en el caso de Bing Chat de Microsoft o Bard de Google, dijo, prevengan a los “malos actores” y creen las “garantías necesarias” para Puede usar su sistema para “generar desintegración”.

Además, las empresas firmantes deben crear tecnología que “detecte” este tipo de contenido en sus sistemas y que “indique claramente a los usuarios” que fueron creados por una máquina, no por una persona.Contenido relacionado creado por IA, una especie de etiqueta de alerta . El comisionado checo dijo: “Nuestra tarea principal es proteger la libertad de expresión, pero no veo por qué las máquinas deberían tener libertad de expresión”.

La legislación europea en materia de nuevas tecnologías avanza a pasos agigantados: el 25 de agosto entrará en vigor la Directiva de Servicios Digitales (DSA), que establece obligaciones de transparencia y accesibilidad en los algoritmos de las grandes plataformas digitales (con más de 45 millones de usuarios, 10) Es . % del mercado potencial europeo). Esta normativa pide, entre otras cosas, una retirada más rápida de contenidos ilegales, la protección de los derechos fundamentales (prohibición de acceso a datos por motivos de raza o religión) o multas que pueden llegar hasta el 6% en el caso de los gigantes tecnológicos. Su ingreso global…

La DSA ya prevé el uso de un tipo de etiquetado, “para garantizar que un elemento de información, ya sea una imagen, audio o video generado o manipulado, se relacione significativamente con personas, objetos, lugares u otras entidades o eventos existentes y que pueden inducir a error a una persona a creer que son auténticos o verdaderos, restar valor a las indicaciones destacadas cuando se presentan en su interfaz en línea”.

La futura legislación sobre IA también prevé mayores requisitos de transparencia para los modelos generativos de IA, que deben dejar claro que su contenido ha sido generado por IA.

Advertisement

Pero al DSA todavía le faltan unos tres meses para que se implemente por completo y, en el caso de la Ley AI, incluso años: el Parlamento Europeo debería aprobar su posición en sesión plenaria la próxima semana y solo entonces comenzarán las negociaciones con los estados. , un texto común que Bruselas no cree que pueda implementarse completamente antes de 2026. Todo ello, cuando la tecnología avanza sin parar.

Por ello, Jourova ha propuesto este lunes que las etiquetas para los contenidos generados por IA se pongan en funcionamiento “inmediatamente” entre los firmantes del Código contra la Desinformación, de forma que antes de finales de agosto será de obligado cumplimiento a partir de ahora.

“Etiquetar es una herramienta rápida, queremos que la plataforma etiquete la salida de IA de tal manera que un usuario normal, que se distrae con muchas cosas, vea claramente que no se trata de texto o imágenes creadas por personas reales, sino que es un robot que habla”, explicó. “Es importante que haya rapidez, etiquetado inmediato y claridad”, insistió.

Prueba del fuerte ritmo que Bruselas quiere imponer es el hecho de que el principal responsable de la Ley IA, Thierry Breton, el comisario de Mercado Interior, impulse el llamado Tratado IA, o Tratado IA, un “compromiso voluntario”. . “Que las empresas avancen en el cumplimiento de los máximos estándares posibles establecidos en la ley de IA.

El acuerdo, que se acordó en mayo durante una visita a Bruselas del jefe de Google, Sundar Pichai, ya ha sido presentado oficialmente a 27 ministros del ramo y se espera que esté listo en el último trimestre del año. Irá Que se pueda implementar para el 2026. Como también explicó Breton a un grupo de periodistas este lunes, se trata de una especie de “antesala” de la legislación de IA que permitirá a las empresas que se suscriban tener “acceso directo” a ella. Equipos de la Comisión que prepararán la entrada en vigor del nuevo reglamento sobre IA, para que “entiendan qué significa y qué hábitos tienen que cambiar”, como la imposibilidad de introducir en la UE tecnología que el llamado crédito social sistema o identificación biométrica como el reconocimiento facial en lugares públicos.

Advertisement

El “error” de Twitter

Dos semanas después de que Twitter anunciara su retirada del código de buenas prácticas de la UE contra la desinformación en Internet, que incluye unas 40 recomendaciones para una mejor cooperación con los servicios de verificación de hechos para frenar la difusión de información falsa, la comisaria Jourova describe la decisión como a “Error” que podría tener graves consecuencias El gigante en línea de Elon Musk ha amenazado indirectamente.

El titular de Transparencia dijo: “Creemos que es un error en Twitter, ha elegido el camino difícil, la confrontación”. Aunque ha reconocido que el código es voluntario, rápidamente ha señalado que dejarlo tendrá consecuencias porque, a la larga, “cualquiera que quiera trabajar en el mercado europeo y ganar dinero tendrá que ajustarse” a las leyes europeas. Para.

“No se equivoquen: al abandonar el código, Twitter ha atraído mucha atención y sus acciones y el cumplimiento de la ley de la UE serán objeto de un riguroso escrutinio”, advirtió.

puedes seguir tecnologia del pais En Facebook Y Gorjeo o regístrate aquí para recibir nuestros periodico semanal,

Advertisement

Continue Reading
Advertisement

Tecnología

TikTok, Discord y el chat de la Play: así llegan los adolescentes a las aplicaciones para desnudar a sus compañeras | Tecnología

Published

on

Los adolescentes consumen porno. Es un hecho probado por datos y estudios, algo que lleva pasando toda la vida y que no sorprende a nadie. Aunque también esto, como muchos otros aspectos de la sociedad, ha evolucionado con la llegada de internet y de las redes sociales. Las revistas o las cintas que hace 20 años alguien enseñaba a escondidas a los amigos se han convertido en fotos y vídeos que los jóvenes se pasan por los chats de WhatsApp, o en enlaces de alguna plataforma pornográfica con millones de visitas diarias en todo el mundo. Y la tecnología no ha cambiado solamente el medio de consumo, sino también el tipo de contenido. El caso de los falsos desnudos de Almendralejo (Badajoz) es el ejemplo de cómo la inteligencia artificial (IA) ha generalizado la creación y difusión de imágenes pornográficas no consentidas, que ya no tienen como víctimas solamente a personas famosas, sino a gente de su propio entorno, como las compañeras de instituto. Una práctica que enciende muchas alarmas por la facilidad de acceso a estas aplicaciones, capaces de desnudar con un clic a cualquier persona que haya colgado una foto en internet.

“El mundo digital no es diferente del mundo analógico. Ahora, como antes, los jóvenes siguen accediendo al porno a través de los amigos que te enseñan algo. La única cosa que ha cambiado son las rutas de acceso, que han pasado a ser digitales”, resume Melchor Gómez, profesor de Tecnología educativa en la Universidad Autónoma de Madrid (UAM). Además de las plataformas más conocidas que forman parte del día a día de todo el mundo independientemente de la edad —WhatsApp, Instagram o Facebook—, hay otras de dominio casi exclusivo de los jóvenes, que es justamente donde Gómez invita a centrar la atención. “Son canales donde en general no hay adultos y donde los jóvenes han creado su propia jerga. Es como si fuera el patio de recreo o el punto donde se dan el encuentro cuando salen de noche. Pero ahora es el chat de la Play”, explica.

De hecho, el 51% de los adolescentes accede a los contenidos pornográficos por primera vez a través de los grupos de amigos, según un informe de Save the Children. Puede ser que se lo enseñe en su dispositivo (pasa en el 30% de los casos); que le hable de ello y lo busque por su cuenta (15%), o que lo reciba a través de grupos de mensajería o redes sociales (6,4%). Tampoco falta la exposición involuntaria, que con la utilización de internet y redes sociales se produce principalmente a través de las páginas y plataformas libres de descargas de series y películas, con los famosos anuncios pop-up.

Dentro de este mundo, la plataforma más popular para la Generación Z es Discord, apunta Gómez. Fundada en 2015 por un programador de videojuegos estadounidense que buscaba una forma para lanzar su estudio de desarrollo de juegos, la red social se hizo verdaderamente famosa durante la pandemia, cuando millones de jóvenes alrededor del globo, confinados en sus casas, buscaban un lugar para chatear con amigos y unirse a comunidades en línea. En tres años, se ha convertido en la plataforma favorita entre los gamers, gracias a la posibilidad de compartir pantalla y de poder jugar en línea con usuarios que no tienen la misma consola.

Advertisement
Captura de pantalla de una chat de Telegram para utilizar una app de inteligencia artificial.

Funciona a través de servidores, similares a los canales de Telegram o los grupos de Facebook, que pueden ser públicos —algunos de los cuales tienen millones de miembros— o privados. Suelen estar dedicados a discutir juegos específicos o empezar conversaciones sobre la música, las series de televisión o el arte. “En general, no se trata de algo preocupante o fuera de control. Son chats como muchos otros, es la forma que tienen los jóvenes al día de hoy para comunicarse entre iguales”, asegura Gómez. Los servidores privados, sin embargo, pueden ser más problemáticos.

Cuentan con comunidades limitadas, a veces formadas por amigos que se conocen en persona y que usan esta plataforma para enviarse mensajes mientras están en línea. Por el hecho de ser más pequeños y que hace falta una invitación para unirse, suelen carecer de la supervisión por parte de la plataforma. Hace unos meses, Discord estuvo involucrada en un caso de filtración de cientos de documentos clasificados de Estados Unidos, que un joven de 21 años compartió en un servidor privado dedicado a videojuegos, memes y bromas racistas. Es la misma red social que un profesor universitario utilizó para hablar con una chica de 14 años de Albacete a la que secuestró durante una semana.

No se trata, sin embargo, de la única ruta de acceso que emplean los más jóvenes. Una búsqueda en TikTok de palabras claves ligadas al caso de Almendralejo reconduce a vídeos sobre aplicaciones y páginas web que sirven para modificar fotografías. Algunos alertan de los peligros de implementar ciertas prácticas, mientras que otros explican cómo usarlas, como un vídeo corto en el que un chico sonreía mientras se mostraba un rótulo con la dirección de una web en la que producir desnudos. “La he usado con mi compi de clase”, escribía un usuario en los comentarios sobre una app que se vende en la web como “la IA más poderosa de deepfake” con la cual “podrás ver desnuda a cualquier chica con un solo clic”. Ese vídeo fue retirado de la plataforma después de que EL PAÍS preguntara cuál es la política de moderación con contenidos como ese. Fuentes de la red social china aseguran que la actividad de índole sexual está prohibida. Un primer filtro lo aplican herramientas automáticas, al que se añade luego la monitorización humana y las denuncias de los propios usuarios.

Vigilar con responsabilidad

Aunque no sea tan popular entre los jóvenes como Discord o TikTok, también Telegram tiene sus canales oscuros. Algunas de estas aplicaciones de IA tienen grupos con centenares de miles de inscritos que permiten acceder a la web directamente desde la plataforma de mensajería. La supervisión es prácticamente inexistente, ya que para acceder hay que confirmar ser mayor de 18 años pinchando en un botón, sin otros tipos de control ni mucha dificultad. “Esto es lo peor. Estas cosas no son para nada complejas. Para un chaval moderno, utilizarlo es tan fácil como ir en bici. Lo que pasa es que los padres viven en mundos paralelos y no hacen el esfuerzo de interesarse en qué hacen los hijos cuando están conectados”, lamenta Talía Rodríguez Martelo, profesora de la Universidad de Vigo experta en temas de educación digital.

Rodríguez alerta de que herramientas como el control parental resultan inútiles con los adolescentes, aunque reconoce que es un mecanismo necesario para limitar el uso que hacen los más pequeños de los contenidos web. “Por cada control parental, a ciertas edades se saben veinte trucos más que tú. Allí está la brecha generacional, en que un joven de 15 años sepa mucho más que sus padres, por el simple hecho de haber nacido rodeado de la tecnología”, explica.

Advertisement

En estos caso, Rodríguez reconoce que la prohibición no lleva a ningún lado, y que la forma más eficaz de vigilar los propios hijos es compartiendo con ellos el tiempo que pasan con las pantallas. “El diálogo es fundamental, pero no puede estar dirigido solo a temas serios. Hay que acompañarle también en las cosas que le interesan solo a ellos y saber de qué están hablando cuando nombran a este u otro streamer. Saber cuáles son los contenidos que comparten”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tecnología

Un pantallazo no sirve: así se denuncia la ‘pornovenganza’ en la red | Tecnología

Published

on

Una pareja mantiene relaciones sexuales y uno de ellos lo graba. Más tarde, decide compartir ese vídeo con otras personas sin el permiso del otro. Es lo que le ocurrió a una menor de Gran Canaria con un jugador de la cantera del Real Madrid, que junto a otros tres compañeros, han sido acusados de un presunto delito de revelación de secretos, por grabar y difundir un vídeo de contenido sexual de la menor sin su autorización. En el caso de las 22 víctimas de Almendralejo, se difundieron imágenes de las menores con falsos desnudos creadas con inteligencia artificial. Uno de cada tres incidentes de ciberseguridad en España son una filtración de datos sensibles, protegidos o confidenciales, robados, según el Instituto Nacional de Ciberseguridad (INCIBE). En estos casos, tanto si es pornovenganza o un deepfake, ¿cómo se puede denunciar y evitar la difusión de este contenido?

Dejar constancia

El primer paso es dejar constancia de la publicación, según indica Pablo Duchement, perito judicial informático especialista en delitos en las redes perpetrados por y contra menores. “Tenemos que dejar constancia de la publicación porque si es a través de la web, el contenido puede desaparecer”, explica. Para ello, recomienda pedir un certificado digital de la publicación del contenido, de manera gratuita, a través de empresas como eGarante: “Con el certificado nadie puede poner en duda que la publicación que estaba ahí, y dónde estaba, y si se borra o se modifica, no pasa nada porque el propio certificado te sigue funcionando como prueba en un juicio”.

Mónica Cuellas, profesora de Derecho Penal Tecnológico en la Universitat Internacional de Catalunya (UIC) y abogada penalista, coincide con Duchement en que se debe pedir un certificado digital. Hacer una captura de pantalla de la publicación puede no ser insuficiente en un juicio. “Un pantallazo es fácilmente impugnable porque es fácilmente manipulable”, explica. Deja claro que lo más importante es “no borrar el contenido del dispositivo”. Para eso sirven estos testigos online, como los define INCIBE.

Advertisement

Además, en España INCIBE dispone de un teléfono gratuito, el 017, activo todos los días del año (de 8 de la mañana a 11 de la noche), para ayudar a resolver problemas de ciberseguridad, desde el punto de vista técnico, psicosocial y legal. También se puede contactar con ellos a través de WhatsApp (900116117), Telegram (@INCIBE017) y por email. El año pasado, la línea recibió más de 67.000 consultas.

Denunciar el contenido

El siguiente paso es denunciar el contenido ante las autoridades. Dirigirse a las Fuerzas y Cuerpos de Seguridad del Estado o a un juzgado de guardia, señala Cuellas. Si la situación la sufre un menor, tendrá que ser su familia o un tutor quien denuncie el contenido por él, explica Duchement. Las penas de cárcel a las que se enfrentan los autores son de hasta 1 año por difundir en internet contenido sexual de menores sin consentimiento, como delito de revelación de secretos, y de hasta 9 años por difundir imágenes sexuales de menores de 16 años creadas con inteligencia artificial, que podría considerarse delito de pornografía infantil, explica Cuellas. También se puede reclamar una indemnización por vía civil.

Solicitar la eliminación

En paralelo, se debe pedir al buscador que retire las imágenes personales, ya que el contenido explícito sigue haciendo daño mientras permanezca en la red. Si alguien aparece en imágenes de Google sin ropa, en un acto sexual o en una situación íntima, puede pedir al buscador que las retire. INCIBE recomienda contactar con la plataforma o página en la que detecte la publicación y pedir su eliminación. Si es necesario, se debe reportar la situación en la Hotline de INCIBE, y denunciar en el canal prioritario de la Agencia Española de Protección de Datos (AEPD). En el caso de las víctimas de Almendralejo, la AEPD ha abierto una investigación de oficio.

Las redes sociales también cuentan con sus canales de denuncia. Meta, además de poder denunciar el contenido desde su plataforma, lanzó en febrero una nueva herramienta para combatir el material sensible. Se llama Take it Down (quítalo, en inglés) y permite denunciar el contenido e impedir que la publicación se pueda compartir en otras plataformas, como Instagram, Facebook, Onlyfans o Pornhub. Instagram también tiene un apartado para proteger la información privada expuesta. TikTok recibió en septiembre una multa de 345 millones de euros de la Unión Europea por poner en riesgo los datos personales de menores en su plataforma. Pese a ello, tiene disponible un apartado de denuncia en su web.

Prevención

Para evitar estas situaciones en la red se pueden tomar ciertas medidas. Informar a personas cercanas sobre la difusión para que no les pase lo mismo, no confiar en desconocidos al enviar datos, imágenes o vídeos personales en internet y no ceder nunca a chantajes, son algunas de las recomendaciones de INCIBE para estos casos. Chequear periódicamente la información personal de cada uno publicada en internet, a través de buscadores y redes sociales, es otra buena práctica y se conoce como egosurfing.

Advertisement

En el caso de la difusión de imágenes falsas creadas con inteligencia artificial en internet, Duchement propone que los usuarios no publiquen sus imágenes personales. También recomienda que no se practique el sexting, es decir, el intercambio de contenido de carácter sexual a través de dispositivos. “Es más seguro ponerte desnudo delante de tu pareja, que enviarle una foto sin ropa”, asegura.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement
Continue Reading

Tecnología

Un grupo de médicos denuncia la muerte de una docena de monos en los ensayos de chips cerebrales de Elon Musk | Ciencia

Published

on

Un grupo de ética médica ha pedido este jueves que se investigue la muerte de una docena de monos en los ensayos de la empresa estadounidense Neuralink, que experimenta con implantes cerebrales. El magnate Elon Musk, fundador de esta compañía biotecnológica, afirmó el 10 de septiembre que algunos animales murieron por enfermedades terminales en las pruebas, pero el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado ante la Comisión de Bolsa y Valores de EE UU (SEC) que los primates fallecieron por complicaciones con los procedimientos del implante. Este martes, la empresa anunció que busca voluntarios para probar un chip cerebral en humanos, con el visto bueno de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA).

El proyecto Interfaz Cerebro-Computadora Precisa Implantada Robóticamente (PRIME, por sus siglas en inglés) de Neuralink tiene como objetivo que las personas con tetraplejia por lesiones en la médula espinal cervical, o por esclerosis lateral amiotrófica (ELA), controlen con la mente dispositivos externos. La promesa de Musk es revolucionar las prótesis con un implante que permita a los cerebros humanos comunicarse de forma inalámbrica con dispositivos artificiales, e incluso entre sí. En 2021, Neuralink publicó un vídeo de un mono jugando a un videojuego que copiaba la dinámica del pimpón. En el vídeo, con más de seis millones de reproducciones, un animal llamado Pager controlaba los mandos con la mirada. La compañía le había implantado dos chips seis meses antes. “Primero lo entrenamos para jugar con un mando, pero después se lo quitamos y le insertamos el Neuralink”, explicó Musk.

La empresa se fundó en 2017 y comenzó a hacer experimentos con animales luego de 12 meses. Hace un año, una investigación de la agencia Reuters indicó que la compañía había sacrificado alrededor de 1.500 animales, incluidos más de 280 ovejas, cerdos y monos que padecieron trastornos de alto sufrimiento antes de morir. Pero no fue hasta el pasado 10 de septiembre que Musk reconoció las muertes de los macacos, aunque negó que alguna de ellas fuera resultado de un implante Neuralink. “Somos extremadamente cuidadosos”, declaró en una presentación de la compañía. El grupo que ha denunciado ante la SEC afirma que los comentarios de Musk sobre las muertes de los animales fueron “engañosos, falsos” y que los inversores “merecen escuchar la verdad sobre la seguridad y comerciabilidad del producto de Neuralink”. La empresa ha recaudado más de 280 millones de dólares de inversores externos.

Advertisement

Desde septiembre de 2017 hasta finales de 2020, los experimentos de la compañía contaron con la ayuda del personal del Centro Nacional de Investigación de Primates de California. La revista estadounidense Wired ha publicado una investigación en la que ha reunido los registros del centro científico y el testimonio de un extrabajador de Neuralink. De acuerdo con los documentos, doce de los primates que se utilizaron para los estudios padecieron diarrea con sangre, parálisis parcial y edemas cerebrales antes de morir.

La investigación de Wired narra una batería de complicaciones que se desarrollaron luego de la implantación quirúrgica en el cerebro de los monos. Uno de ellos, identificado como “Animal 20″ en los registros veterinarios, se habría rascado en la herida de la operación, desprendiendo parte del dispositivo. Los investigadores realizaron una intervención para reparar el problema, pero las infecciones se arraigaron. Fue sacrificado el 6 de enero de 2020.

“Animal 15″ y “Animal 22″ también habrían muerto por los procedimientos del implante. La hembra “Animal 15″ presionaba la cabeza contra el suelo, como probable signo de dolor por una infección. Los veterinarios la observaban incómoda y tirando de su implante hasta sangrar. Pasó sus últimos días tumbada y tomada de la mano con su compañera de jaula. Otro mono más, el Animal 22, fue sacrificado en marzo de 2020 después de que su implante craneal se aflojara. La necropsia establece que “el fallo del implante puede considerarse puramente mecánico y no exacerbado por una infección”. Las fuentes de Wired, que pidieron mantenerse anónimas, sostienen que no pudieron morir por causas naturales y que los tuvieron bajo cuidado durante aproximadamente un año antes de realizarles cualquier cirugía: “Es difícil imaginar que estos monos, que no eran adultos, fueran terminales por alguna razón”.

Advertisement

Ahora Neuralink está un paso más cerca de colocar los implantes en personas y Elon Musk lo ha celebrado en la red social X (antes Twitter): “A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de la inteligencia artificial para la civilización, mejorando el ancho de banda desde el humano a la inteligencia artificial (y de humano a humano) en varios órdenes de magnitud. Imaginen si Stephen Hawking hubiera tenido esto”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.