Connect with us

Tecnología

JPMorgan Chase presenta patente relacionada con inteligencia artificial

Published

on

El banco más grande de los Estados Unidos, JPMorgan Chase, presentó una solicitud de marca ante la Oficina de Marcas y Patentes de los Estados Unidos (USPTO) para un producto al que llamaron IndexGPT. Se basa en el uso de la inteligencia artificial (IA) aplicada a las finanzas.

Dicha solicitud fue realizada por el reconocido banco el 11 de mayo del presente año. Según la descripción del producto en la USPTO, es Una herramienta que tiene como objetivo brindar asesoramiento de inversión a sus usuarios,

IndexGPT se basa en un modelo de Transformador Generativo (GPT) preentrenado similar a ChatGPT. Utiliza computación en la nube y análisis de datos para seleccionar y recomendar acciones que se ajusten a las necesidades y perfiles de los clientes.

IndexGPT aún está en desarrollo y, por el momento, no hay información sobre su fecha de lanzamiento oficial. Tampoco se sabe si esta será una herramienta exclusiva para los empleados de JPMorgan Chase o si sus clientes tendrán acceso directo a ella.

Advertisement

Si el lanzamiento de IndexGPT logra el mismo impacto que ChatGPT, podría significar una revolución en el sector financiero. esto es porque Brindará asesoramiento personalizado, instantáneo y basado en inteligencia artificial.,

Jamie Dimon, CEO de JPMorgan Chase, habló sobre inteligencia artificial en abril de este año en una carta dedicada a los accionistas de la institución. En él decía que “la IA y la materia prima que la alimenta, los datos, serán fundamentales para el éxito futuro de nuestra empresa”. Esta declaración del gestor refleja el interés del banco por aprovechar al máximo los últimos avances tecnológicos.

La comunidad de criptomonedas y su interés en la IA

CriptoNoticias revisó un informe titulado “AI & Tango Blockchain” del intercambio de criptomonedas KuCoin el 25 de mayo de este año. Esto demuestra que, en todos los casos, Creciente adopción y aceptación de la IA entre los usuarios de criptomonedas,

Un dato de particular interés es que el 59% de los encuestados expresó su deseo de ver avances en inteligencia artificial aplicada al comercio de criptomonedas. Incluso entonces, Respecto a la privacidad y seguridad del uso de esta tecnología fue la principal preocupación para el 48% de los usuarios.

Advertisement

Continue Reading
Advertisement

Tecnología

TikTok, Discord y el chat de la Play: así llegan los adolescentes a las aplicaciones para desnudar a sus compañeras | Tecnología

Published

on

Los adolescentes consumen porno. Es un hecho probado por datos y estudios, algo que lleva pasando toda la vida y que no sorprende a nadie. Aunque también esto, como muchos otros aspectos de la sociedad, ha evolucionado con la llegada de internet y de las redes sociales. Las revistas o las cintas que hace 20 años alguien enseñaba a escondidas a los amigos se han convertido en fotos y vídeos que los jóvenes se pasan por los chats de WhatsApp, o en enlaces de alguna plataforma pornográfica con millones de visitas diarias en todo el mundo. Y la tecnología no ha cambiado solamente el medio de consumo, sino también el tipo de contenido. El caso de los falsos desnudos de Almendralejo (Badajoz) es el ejemplo de cómo la inteligencia artificial (IA) ha generalizado la creación y difusión de imágenes pornográficas no consentidas, que ya no tienen como víctimas solamente a personas famosas, sino a gente de su propio entorno, como las compañeras de instituto. Una práctica que enciende muchas alarmas por la facilidad de acceso a estas aplicaciones, capaces de desnudar con un clic a cualquier persona que haya colgado una foto en internet.

“El mundo digital no es diferente del mundo analógico. Ahora, como antes, los jóvenes siguen accediendo al porno a través de los amigos que te enseñan algo. La única cosa que ha cambiado son las rutas de acceso, que han pasado a ser digitales”, resume Melchor Gómez, profesor de Tecnología educativa en la Universidad Autónoma de Madrid (UAM). Además de las plataformas más conocidas que forman parte del día a día de todo el mundo independientemente de la edad —WhatsApp, Instagram o Facebook—, hay otras de dominio casi exclusivo de los jóvenes, que es justamente donde Gómez invita a centrar la atención. “Son canales donde en general no hay adultos y donde los jóvenes han creado su propia jerga. Es como si fuera el patio de recreo o el punto donde se dan el encuentro cuando salen de noche. Pero ahora es el chat de la Play”, explica.

De hecho, el 51% de los adolescentes accede a los contenidos pornográficos por primera vez a través de los grupos de amigos, según un informe de Save the Children. Puede ser que se lo enseñe en su dispositivo (pasa en el 30% de los casos); que le hable de ello y lo busque por su cuenta (15%), o que lo reciba a través de grupos de mensajería o redes sociales (6,4%). Tampoco falta la exposición involuntaria, que con la utilización de internet y redes sociales se produce principalmente a través de las páginas y plataformas libres de descargas de series y películas, con los famosos anuncios pop-up.

Dentro de este mundo, la plataforma más popular para la Generación Z es Discord, apunta Gómez. Fundada en 2015 por un programador de videojuegos estadounidense que buscaba una forma para lanzar su estudio de desarrollo de juegos, la red social se hizo verdaderamente famosa durante la pandemia, cuando millones de jóvenes alrededor del globo, confinados en sus casas, buscaban un lugar para chatear con amigos y unirse a comunidades en línea. En tres años, se ha convertido en la plataforma favorita entre los gamers, gracias a la posibilidad de compartir pantalla y de poder jugar en línea con usuarios que no tienen la misma consola.

Advertisement
Captura de pantalla de una chat de Telegram para utilizar una app de inteligencia artificial.

Funciona a través de servidores, similares a los canales de Telegram o los grupos de Facebook, que pueden ser públicos —algunos de los cuales tienen millones de miembros— o privados. Suelen estar dedicados a discutir juegos específicos o empezar conversaciones sobre la música, las series de televisión o el arte. “En general, no se trata de algo preocupante o fuera de control. Son chats como muchos otros, es la forma que tienen los jóvenes al día de hoy para comunicarse entre iguales”, asegura Gómez. Los servidores privados, sin embargo, pueden ser más problemáticos.

Cuentan con comunidades limitadas, a veces formadas por amigos que se conocen en persona y que usan esta plataforma para enviarse mensajes mientras están en línea. Por el hecho de ser más pequeños y que hace falta una invitación para unirse, suelen carecer de la supervisión por parte de la plataforma. Hace unos meses, Discord estuvo involucrada en un caso de filtración de cientos de documentos clasificados de Estados Unidos, que un joven de 21 años compartió en un servidor privado dedicado a videojuegos, memes y bromas racistas. Es la misma red social que un profesor universitario utilizó para hablar con una chica de 14 años de Albacete a la que secuestró durante una semana.

No se trata, sin embargo, de la única ruta de acceso que emplean los más jóvenes. Una búsqueda en TikTok de palabras claves ligadas al caso de Almendralejo reconduce a vídeos sobre aplicaciones y páginas web que sirven para modificar fotografías. Algunos alertan de los peligros de implementar ciertas prácticas, mientras que otros explican cómo usarlas, como un vídeo corto en el que un chico sonreía mientras se mostraba un rótulo con la dirección de una web en la que producir desnudos. “La he usado con mi compi de clase”, escribía un usuario en los comentarios sobre una app que se vende en la web como “la IA más poderosa de deepfake” con la cual “podrás ver desnuda a cualquier chica con un solo clic”. Ese vídeo fue retirado de la plataforma después de que EL PAÍS preguntara cuál es la política de moderación con contenidos como ese. Fuentes de la red social china aseguran que la actividad de índole sexual está prohibida. Un primer filtro lo aplican herramientas automáticas, al que se añade luego la monitorización humana y las denuncias de los propios usuarios.

Vigilar con responsabilidad

Aunque no sea tan popular entre los jóvenes como Discord o TikTok, también Telegram tiene sus canales oscuros. Algunas de estas aplicaciones de IA tienen grupos con centenares de miles de inscritos que permiten acceder a la web directamente desde la plataforma de mensajería. La supervisión es prácticamente inexistente, ya que para acceder hay que confirmar ser mayor de 18 años pinchando en un botón, sin otros tipos de control ni mucha dificultad. “Esto es lo peor. Estas cosas no son para nada complejas. Para un chaval moderno, utilizarlo es tan fácil como ir en bici. Lo que pasa es que los padres viven en mundos paralelos y no hacen el esfuerzo de interesarse en qué hacen los hijos cuando están conectados”, lamenta Talía Rodríguez Martelo, profesora de la Universidad de Vigo experta en temas de educación digital.

Rodríguez alerta de que herramientas como el control parental resultan inútiles con los adolescentes, aunque reconoce que es un mecanismo necesario para limitar el uso que hacen los más pequeños de los contenidos web. “Por cada control parental, a ciertas edades se saben veinte trucos más que tú. Allí está la brecha generacional, en que un joven de 15 años sepa mucho más que sus padres, por el simple hecho de haber nacido rodeado de la tecnología”, explica.

Advertisement

En estos caso, Rodríguez reconoce que la prohibición no lleva a ningún lado, y que la forma más eficaz de vigilar los propios hijos es compartiendo con ellos el tiempo que pasan con las pantallas. “El diálogo es fundamental, pero no puede estar dirigido solo a temas serios. Hay que acompañarle también en las cosas que le interesan solo a ellos y saber de qué están hablando cuando nombran a este u otro streamer. Saber cuáles son los contenidos que comparten”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tecnología

Un pantallazo no sirve: así se denuncia la ‘pornovenganza’ en la red | Tecnología

Published

on

Una pareja mantiene relaciones sexuales y uno de ellos lo graba. Más tarde, decide compartir ese vídeo con otras personas sin el permiso del otro. Es lo que le ocurrió a una menor de Gran Canaria con un jugador de la cantera del Real Madrid, que junto a otros tres compañeros, han sido acusados de un presunto delito de revelación de secretos, por grabar y difundir un vídeo de contenido sexual de la menor sin su autorización. En el caso de las 22 víctimas de Almendralejo, se difundieron imágenes de las menores con falsos desnudos creadas con inteligencia artificial. Uno de cada tres incidentes de ciberseguridad en España son una filtración de datos sensibles, protegidos o confidenciales, robados, según el Instituto Nacional de Ciberseguridad (INCIBE). En estos casos, tanto si es pornovenganza o un deepfake, ¿cómo se puede denunciar y evitar la difusión de este contenido?

Dejar constancia

El primer paso es dejar constancia de la publicación, según indica Pablo Duchement, perito judicial informático especialista en delitos en las redes perpetrados por y contra menores. “Tenemos que dejar constancia de la publicación porque si es a través de la web, el contenido puede desaparecer”, explica. Para ello, recomienda pedir un certificado digital de la publicación del contenido, de manera gratuita, a través de empresas como eGarante: “Con el certificado nadie puede poner en duda que la publicación que estaba ahí, y dónde estaba, y si se borra o se modifica, no pasa nada porque el propio certificado te sigue funcionando como prueba en un juicio”.

Mónica Cuellas, profesora de Derecho Penal Tecnológico en la Universitat Internacional de Catalunya (UIC) y abogada penalista, coincide con Duchement en que se debe pedir un certificado digital. Hacer una captura de pantalla de la publicación puede no ser insuficiente en un juicio. “Un pantallazo es fácilmente impugnable porque es fácilmente manipulable”, explica. Deja claro que lo más importante es “no borrar el contenido del dispositivo”. Para eso sirven estos testigos online, como los define INCIBE.

Advertisement

Además, en España INCIBE dispone de un teléfono gratuito, el 017, activo todos los días del año (de 8 de la mañana a 11 de la noche), para ayudar a resolver problemas de ciberseguridad, desde el punto de vista técnico, psicosocial y legal. También se puede contactar con ellos a través de WhatsApp (900116117), Telegram (@INCIBE017) y por email. El año pasado, la línea recibió más de 67.000 consultas.

Denunciar el contenido

El siguiente paso es denunciar el contenido ante las autoridades. Dirigirse a las Fuerzas y Cuerpos de Seguridad del Estado o a un juzgado de guardia, señala Cuellas. Si la situación la sufre un menor, tendrá que ser su familia o un tutor quien denuncie el contenido por él, explica Duchement. Las penas de cárcel a las que se enfrentan los autores son de hasta 1 año por difundir en internet contenido sexual de menores sin consentimiento, como delito de revelación de secretos, y de hasta 9 años por difundir imágenes sexuales de menores de 16 años creadas con inteligencia artificial, que podría considerarse delito de pornografía infantil, explica Cuellas. También se puede reclamar una indemnización por vía civil.

Solicitar la eliminación

En paralelo, se debe pedir al buscador que retire las imágenes personales, ya que el contenido explícito sigue haciendo daño mientras permanezca en la red. Si alguien aparece en imágenes de Google sin ropa, en un acto sexual o en una situación íntima, puede pedir al buscador que las retire. INCIBE recomienda contactar con la plataforma o página en la que detecte la publicación y pedir su eliminación. Si es necesario, se debe reportar la situación en la Hotline de INCIBE, y denunciar en el canal prioritario de la Agencia Española de Protección de Datos (AEPD). En el caso de las víctimas de Almendralejo, la AEPD ha abierto una investigación de oficio.

Las redes sociales también cuentan con sus canales de denuncia. Meta, además de poder denunciar el contenido desde su plataforma, lanzó en febrero una nueva herramienta para combatir el material sensible. Se llama Take it Down (quítalo, en inglés) y permite denunciar el contenido e impedir que la publicación se pueda compartir en otras plataformas, como Instagram, Facebook, Onlyfans o Pornhub. Instagram también tiene un apartado para proteger la información privada expuesta. TikTok recibió en septiembre una multa de 345 millones de euros de la Unión Europea por poner en riesgo los datos personales de menores en su plataforma. Pese a ello, tiene disponible un apartado de denuncia en su web.

Prevención

Para evitar estas situaciones en la red se pueden tomar ciertas medidas. Informar a personas cercanas sobre la difusión para que no les pase lo mismo, no confiar en desconocidos al enviar datos, imágenes o vídeos personales en internet y no ceder nunca a chantajes, son algunas de las recomendaciones de INCIBE para estos casos. Chequear periódicamente la información personal de cada uno publicada en internet, a través de buscadores y redes sociales, es otra buena práctica y se conoce como egosurfing.

Advertisement

En el caso de la difusión de imágenes falsas creadas con inteligencia artificial en internet, Duchement propone que los usuarios no publiquen sus imágenes personales. También recomienda que no se practique el sexting, es decir, el intercambio de contenido de carácter sexual a través de dispositivos. “Es más seguro ponerte desnudo delante de tu pareja, que enviarle una foto sin ropa”, asegura.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement
Continue Reading

Tecnología

Un grupo de médicos denuncia la muerte de una docena de monos en los ensayos de chips cerebrales de Elon Musk | Ciencia

Published

on

Un grupo de ética médica ha pedido este jueves que se investigue la muerte de una docena de monos en los ensayos de la empresa estadounidense Neuralink, que experimenta con implantes cerebrales. El magnate Elon Musk, fundador de esta compañía biotecnológica, afirmó el 10 de septiembre que algunos animales murieron por enfermedades terminales en las pruebas, pero el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado ante la Comisión de Bolsa y Valores de EE UU (SEC) que los primates fallecieron por complicaciones con los procedimientos del implante. Este martes, la empresa anunció que busca voluntarios para probar un chip cerebral en humanos, con el visto bueno de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA).

El proyecto Interfaz Cerebro-Computadora Precisa Implantada Robóticamente (PRIME, por sus siglas en inglés) de Neuralink tiene como objetivo que las personas con tetraplejia por lesiones en la médula espinal cervical, o por esclerosis lateral amiotrófica (ELA), controlen con la mente dispositivos externos. La promesa de Musk es revolucionar las prótesis con un implante que permita a los cerebros humanos comunicarse de forma inalámbrica con dispositivos artificiales, e incluso entre sí. En 2021, Neuralink publicó un vídeo de un mono jugando a un videojuego que copiaba la dinámica del pimpón. En el vídeo, con más de seis millones de reproducciones, un animal llamado Pager controlaba los mandos con la mirada. La compañía le había implantado dos chips seis meses antes. “Primero lo entrenamos para jugar con un mando, pero después se lo quitamos y le insertamos el Neuralink”, explicó Musk.

La empresa se fundó en 2017 y comenzó a hacer experimentos con animales luego de 12 meses. Hace un año, una investigación de la agencia Reuters indicó que la compañía había sacrificado alrededor de 1.500 animales, incluidos más de 280 ovejas, cerdos y monos que padecieron trastornos de alto sufrimiento antes de morir. Pero no fue hasta el pasado 10 de septiembre que Musk reconoció las muertes de los macacos, aunque negó que alguna de ellas fuera resultado de un implante Neuralink. “Somos extremadamente cuidadosos”, declaró en una presentación de la compañía. El grupo que ha denunciado ante la SEC afirma que los comentarios de Musk sobre las muertes de los animales fueron “engañosos, falsos” y que los inversores “merecen escuchar la verdad sobre la seguridad y comerciabilidad del producto de Neuralink”. La empresa ha recaudado más de 280 millones de dólares de inversores externos.

Advertisement

Desde septiembre de 2017 hasta finales de 2020, los experimentos de la compañía contaron con la ayuda del personal del Centro Nacional de Investigación de Primates de California. La revista estadounidense Wired ha publicado una investigación en la que ha reunido los registros del centro científico y el testimonio de un extrabajador de Neuralink. De acuerdo con los documentos, doce de los primates que se utilizaron para los estudios padecieron diarrea con sangre, parálisis parcial y edemas cerebrales antes de morir.

La investigación de Wired narra una batería de complicaciones que se desarrollaron luego de la implantación quirúrgica en el cerebro de los monos. Uno de ellos, identificado como “Animal 20″ en los registros veterinarios, se habría rascado en la herida de la operación, desprendiendo parte del dispositivo. Los investigadores realizaron una intervención para reparar el problema, pero las infecciones se arraigaron. Fue sacrificado el 6 de enero de 2020.

“Animal 15″ y “Animal 22″ también habrían muerto por los procedimientos del implante. La hembra “Animal 15″ presionaba la cabeza contra el suelo, como probable signo de dolor por una infección. Los veterinarios la observaban incómoda y tirando de su implante hasta sangrar. Pasó sus últimos días tumbada y tomada de la mano con su compañera de jaula. Otro mono más, el Animal 22, fue sacrificado en marzo de 2020 después de que su implante craneal se aflojara. La necropsia establece que “el fallo del implante puede considerarse puramente mecánico y no exacerbado por una infección”. Las fuentes de Wired, que pidieron mantenerse anónimas, sostienen que no pudieron morir por causas naturales y que los tuvieron bajo cuidado durante aproximadamente un año antes de realizarles cualquier cirugía: “Es difícil imaginar que estos monos, que no eran adultos, fueran terminales por alguna razón”.

Advertisement

Ahora Neuralink está un paso más cerca de colocar los implantes en personas y Elon Musk lo ha celebrado en la red social X (antes Twitter): “A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de la inteligencia artificial para la civilización, mejorando el ancho de banda desde el humano a la inteligencia artificial (y de humano a humano) en varios órdenes de magnitud. Imaginen si Stephen Hawking hubiera tenido esto”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.