Un empresario, cuya identidad no ha sido revelada, ha sido detenido por aceptar criptomonedas como pago en su establecimiento de alquiler de coches, tras un operativo policial.
“El sospechoso anunció su negocio de alquiler de autos a través de las redes sociales y aceptó pagos en criptomonedas”, lo que desató una investigación por parte de las autoridades de Bali, una isla en el sur de Indonesia.
La persona prestó los servicios a través de grupos de Telegram Alquiler de moto o coche promocionado con pago mediante criptomoneda, Según medios locales, varios miembros de la policía se hicieron pasar por posibles clientes interesados en alquilar un automóvil.
Tras contactar con el empresario, le pidió la dirección de la cartera y acordó el precio del alquiler del coche por tres días serán 350 dólares americanos en Tether (USDT).
Advertisement
La policía de Bali luego procedió a arrestar al hombre y confiscó un teléfono celular que tenía billetera utilizada por el sujeto,
La persecución al bitcoin y al uso de las criptomonedas en esa nación asiática, está avalada por la Ley N° 7 de 2011. dicho reglamento Prohíbe el uso de criptomonedas como pagoYa que solo se pueden aceptar pagos con rupias, el nombre de la moneda local.
La acción policial es parte de una campaña para detener los pagos con criptomonedas en Bali. Hace unos días, el gobernador de esa provincia, Wayne Koster, advirtió a los turistas extranjeros contra el uso de criptomonedas como medio de pago, porque Lo consideran una práctica ilegal.,
A diferencia de Indonesia, la expansión de los criptoactivos en el mundo es cada vez mayor. Por ejemplo, el mes pasado, CriptoNoticias informó que el Consejo de la Unión Europea (UE) adoptó sin objeciones el Reglamento del Mercado de Criptoactivos (Ley MiCA), un reglamento que rige a los emisores de criptomonedas y proveedores de servicios de criptoactivos que operan en la eurozona. ,
Los adolescentes consumen porno. Es un hecho probado por datos y estudios, algo que lleva pasando toda la vida y que no sorprende a nadie. Aunque también esto, como muchos otros aspectos de la sociedad, ha evolucionado con la llegada de internet y de las redes sociales. Las revistas o las cintas que hace 20 años alguien enseñaba a escondidas a los amigos se han convertido en fotos y vídeos que los jóvenes se pasan por los chats de WhatsApp, o en enlaces de alguna plataforma pornográfica con millones de visitas diarias en todo el mundo. Y la tecnología no ha cambiado solamente el medio de consumo, sino también el tipo de contenido. El caso de los falsos desnudos de Almendralejo (Badajoz) es el ejemplo de cómo la inteligencia artificial (IA) ha generalizado la creación y difusión de imágenes pornográficas no consentidas, que ya no tienen como víctimas solamente a personas famosas, sino a gente de su propio entorno, como las compañeras de instituto. Una práctica que enciende muchas alarmas por la facilidad de acceso a estas aplicaciones, capaces de desnudar con un clic a cualquier persona que haya colgado una foto en internet.
“El mundo digital no es diferente del mundo analógico. Ahora, como antes, los jóvenes siguen accediendo al porno a través de los amigos que te enseñan algo. La única cosa que ha cambiado son las rutas de acceso, que han pasado a ser digitales”, resume Melchor Gómez, profesor de Tecnología educativa en la Universidad Autónoma de Madrid (UAM). Además de las plataformas más conocidas que forman parte del día a día de todo el mundo independientemente de la edad —WhatsApp, Instagram o Facebook—, hay otras de dominio casi exclusivo de los jóvenes, que es justamente donde Gómez invita a centrar la atención. “Son canales donde en general no hay adultos y donde los jóvenes han creado su propia jerga. Es como si fuera el patio de recreo o el punto donde se dan el encuentro cuando salen de noche. Pero ahora es el chat de la Play”, explica.
De hecho, el 51% de los adolescentes accede a los contenidos pornográficos por primera vez a través de los grupos de amigos, según un informe de Save the Children. Puede ser que se lo enseñe en su dispositivo (pasa en el 30% de los casos); que le hable de ello y lo busque por su cuenta (15%), o que lo reciba a través de grupos de mensajería o redes sociales (6,4%). Tampoco falta la exposición involuntaria, que con la utilización de internet y redes sociales se produce principalmente a través de las páginas y plataformas libres de descargas de series y películas, con los famosos anuncios pop-up.
Dentro de este mundo, la plataforma más popular para la Generación Z es Discord, apunta Gómez. Fundada en 2015 por un programador de videojuegos estadounidense que buscaba una forma para lanzar su estudio de desarrollo de juegos, la red social se hizo verdaderamente famosa durante la pandemia, cuando millones de jóvenes alrededor del globo, confinados en sus casas, buscaban un lugar para chatear con amigos y unirse a comunidades en línea. En tres años, se ha convertido en la plataforma favorita entre los gamers, gracias a la posibilidad de compartir pantalla y de poder jugar en línea con usuarios que no tienen la misma consola.
Advertisement
Captura de pantalla de una chat de Telegram para utilizar una app de inteligencia artificial.
Funciona a través de servidores, similares a los canales de Telegram o los grupos de Facebook, que pueden ser públicos —algunos de los cuales tienen millones de miembros— o privados. Suelen estar dedicados a discutir juegos específicos o empezar conversaciones sobre la música, las series de televisión o el arte. “En general, no se trata de algo preocupante o fuera de control. Son chats como muchos otros, es la forma que tienen los jóvenes al día de hoy para comunicarse entre iguales”, asegura Gómez. Los servidores privados, sin embargo, pueden ser más problemáticos.
Cuentan con comunidades limitadas, a veces formadas por amigos que se conocen en persona y que usan esta plataforma para enviarse mensajes mientras están en línea. Por el hecho de ser más pequeños y que hace falta una invitación para unirse, suelen carecer de la supervisión por parte de la plataforma. Hace unos meses, Discord estuvo involucrada en un caso de filtración de cientos de documentos clasificados de Estados Unidos, que un joven de 21 años compartió en un servidor privado dedicado a videojuegos, memes y bromas racistas. Es la misma red social que un profesor universitario utilizó para hablar con una chica de 14 años de Albacete a la que secuestró durante una semana.
No se trata, sin embargo, de la única ruta de acceso que emplean los más jóvenes. Una búsqueda en TikTok de palabras claves ligadas al caso de Almendralejo reconduce a vídeos sobre aplicaciones y páginas web que sirven para modificar fotografías. Algunos alertan de los peligros de implementar ciertas prácticas, mientras que otros explican cómo usarlas, como un vídeo corto en el que un chico sonreía mientras se mostraba un rótulo con la dirección de una web en la que producir desnudos. “La he usado con mi compi de clase”, escribía un usuario en los comentarios sobre una app que se vende en la web como “la IA más poderosa de deepfake” con la cual “podrás ver desnuda a cualquier chica con un solo clic”. Ese vídeo fue retirado de la plataforma después de que EL PAÍS preguntara cuál es la política de moderación con contenidos como ese. Fuentes de la red social china aseguran que la actividad de índole sexual está prohibida. Un primer filtro lo aplican herramientas automáticas, al que se añade luego la monitorización humana y las denuncias de los propios usuarios.
Vigilar con responsabilidad
Aunque no sea tan popular entre los jóvenes como Discord o TikTok, también Telegram tiene sus canales oscuros. Algunas de estas aplicaciones de IA tienen grupos con centenares de miles de inscritos que permiten acceder a la web directamente desde la plataforma de mensajería. La supervisión es prácticamente inexistente, ya que para acceder hay que confirmar ser mayor de 18 años pinchando en un botón, sin otros tipos de control ni mucha dificultad. “Esto es lo peor. Estas cosas no son para nada complejas. Para un chaval moderno, utilizarlo es tan fácil como ir en bici. Lo que pasa es que los padres viven en mundos paralelos y no hacen el esfuerzo de interesarse en qué hacen los hijos cuando están conectados”, lamenta Talía Rodríguez Martelo, profesora de la Universidad de Vigo experta en temas de educación digital.
Rodríguez alerta de que herramientas como el control parental resultan inútiles con los adolescentes, aunque reconoce que es un mecanismo necesario para limitar el uso que hacen los más pequeños de los contenidos web. “Por cada control parental, a ciertas edades se saben veinte trucos más que tú. Allí está la brecha generacional, en que un joven de 15 años sepa mucho más que sus padres, por el simple hecho de haber nacido rodeado de la tecnología”, explica.
Advertisement
En estos caso, Rodríguez reconoce que la prohibición no lleva a ningún lado, y que la forma más eficaz de vigilar los propios hijos es compartiendo con ellos el tiempo que pasan con las pantallas. “El diálogo es fundamental, pero no puede estar dirigido solo a temas serios. Hay que acompañarle también en las cosas que le interesan solo a ellos y saber de qué están hablando cuando nombran a este u otro streamer. Saber cuáles son los contenidos que comparten”.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Una pareja mantiene relaciones sexuales y uno de ellos lo graba. Más tarde, decide compartir ese vídeo con otras personas sin el permiso del otro. Es lo que le ocurrió a una menor de Gran Canaria con un jugador de la cantera del Real Madrid, que junto a otros tres compañeros, han sido acusados de un presunto delito de revelación de secretos, por grabar y difundir un vídeo de contenido sexual de la menor sin su autorización. En el caso de las 22 víctimas de Almendralejo, se difundieron imágenes de las menores con falsos desnudos creadas con inteligencia artificial. Uno de cada tres incidentes de ciberseguridad en España son una filtración de datos sensibles, protegidos o confidenciales, robados, según el Instituto Nacional de Ciberseguridad (INCIBE). En estos casos, tanto si es pornovenganza o un deepfake, ¿cómo se puede denunciar y evitar la difusión de este contenido?
Dejar constancia
El primer paso es dejar constancia de la publicación, según indica Pablo Duchement, perito judicial informático especialista en delitos en las redes perpetrados por y contra menores. “Tenemos que dejar constancia de la publicación porque si es a través de la web, el contenido puede desaparecer”, explica. Para ello, recomienda pedir un certificado digital de la publicación del contenido, de manera gratuita, a través de empresas como eGarante: “Con el certificado nadie puede poner en duda que la publicación que estaba ahí, y dónde estaba, y si se borra o se modifica, no pasa nada porque el propio certificado te sigue funcionando como prueba en un juicio”.
Mónica Cuellas, profesora de Derecho Penal Tecnológico en la Universitat Internacional de Catalunya (UIC) y abogada penalista, coincide con Duchement en que se debe pedir un certificado digital. Hacer una captura de pantalla de la publicación puede no ser insuficiente en un juicio. “Un pantallazo es fácilmente impugnable porque es fácilmente manipulable”, explica. Deja claro que lo más importante es “no borrar el contenido del dispositivo”. Para eso sirven estos testigos online, como los define INCIBE.
Advertisement
Además, en España INCIBE dispone de un teléfono gratuito, el 017, activo todos los días del año (de 8 de la mañana a 11 de la noche), para ayudar a resolver problemas de ciberseguridad, desde el punto de vista técnico, psicosocial y legal. También se puede contactar con ellos a través de WhatsApp (900116117), Telegram (@INCIBE017) y por email. El año pasado, la línea recibió más de 67.000 consultas.
Denunciar el contenido
El siguiente paso es denunciar el contenido ante las autoridades. Dirigirse a las Fuerzas y Cuerpos de Seguridad del Estado o a un juzgado de guardia, señala Cuellas. Si la situación la sufre un menor, tendrá que ser su familia o un tutor quien denuncie el contenido por él, explica Duchement. Las penas de cárcel a las que se enfrentan los autores son de hasta 1 año por difundir en internet contenido sexual de menores sin consentimiento, como delito de revelación de secretos, y de hasta 9 años por difundir imágenes sexuales de menores de 16 años creadas con inteligencia artificial, que podría considerarse delito de pornografía infantil, explica Cuellas. También se puede reclamar una indemnización por vía civil.
Solicitar la eliminación
En paralelo, se debe pedir al buscador que retire las imágenes personales, ya que el contenido explícito sigue haciendo daño mientras permanezca en la red. Si alguien aparece en imágenes de Google sin ropa, en un acto sexual o en una situación íntima, puede pedir al buscador que las retire. INCIBE recomienda contactar con la plataforma o página en la que detecte la publicación y pedir su eliminación. Si es necesario, se debe reportar la situación en la Hotline de INCIBE, y denunciar en el canal prioritario de la Agencia Española de Protección de Datos (AEPD). En el caso de las víctimas de Almendralejo, la AEPD ha abierto una investigación de oficio.
Las redes sociales también cuentan con sus canales de denuncia. Meta, además de poder denunciar el contenido desde su plataforma, lanzó en febrero una nueva herramienta para combatir el material sensible. Se llama Take it Down (quítalo, en inglés) y permite denunciar el contenido e impedir que la publicación se pueda compartir en otras plataformas, como Instagram, Facebook, Onlyfans o Pornhub. Instagram también tiene un apartado para proteger la información privada expuesta. TikTok recibió en septiembre una multa de 345 millones de euros de la Unión Europea por poner en riesgo los datos personales de menores en su plataforma. Pese a ello, tiene disponible un apartado de denuncia en su web.
Prevención
Para evitar estas situaciones en la red se pueden tomar ciertas medidas. Informar a personas cercanas sobre la difusión para que no les pase lo mismo, no confiar en desconocidos al enviar datos, imágenes o vídeos personales en internet y no ceder nunca a chantajes, son algunas de las recomendaciones de INCIBE para estos casos. Chequear periódicamente la información personal de cada uno publicada en internet, a través de buscadores y redes sociales, es otra buena práctica y se conoce como egosurfing.
Advertisement
En el caso de la difusión de imágenes falsas creadas con inteligencia artificial en internet, Duchement propone que los usuarios no publiquen sus imágenes personales. También recomienda que no se practique el sexting, es decir, el intercambio de contenido de carácter sexual a través de dispositivos. “Es más seguro ponerte desnudo delante de tu pareja, que enviarle una foto sin ropa”, asegura.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Un grupo de ética médica ha pedido este jueves que se investigue la muerte de una docena de monos en los ensayos de la empresa estadounidense Neuralink, que experimenta con implantes cerebrales. El magnate Elon Musk, fundador de esta compañía biotecnológica, afirmó el 10 de septiembre que algunos animales murieron por enfermedades terminales en las pruebas, pero el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado ante la Comisión de Bolsa y Valores de EE UU (SEC) que los primates fallecieron por complicaciones con los procedimientos del implante. Este martes, la empresa anunció que busca voluntarios para probar un chip cerebral en humanos, con el visto bueno de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA).
El proyecto Interfaz Cerebro-Computadora Precisa Implantada Robóticamente (PRIME, por sus siglas en inglés) de Neuralink tiene como objetivo que las personas con tetraplejia por lesiones en la médula espinal cervical, o por esclerosis lateral amiotrófica (ELA), controlen con la mente dispositivos externos. La promesa de Musk es revolucionar las prótesis con un implante que permita a los cerebros humanos comunicarse de forma inalámbrica con dispositivos artificiales, e incluso entre sí. En 2021, Neuralink publicó un vídeo de un mono jugando a un videojuego que copiaba la dinámica del pimpón. En el vídeo, con más de seis millones de reproducciones, un animal llamado Pager controlaba los mandos con la mirada. La compañía le había implantado dos chips seis meses antes. “Primero lo entrenamos para jugar con un mando, pero después se lo quitamos y le insertamos el Neuralink”, explicó Musk.
La empresa se fundó en 2017 y comenzó a hacer experimentos con animales luego de 12 meses. Hace un año, una investigación de la agencia Reuters indicó que la compañía había sacrificado alrededor de 1.500 animales, incluidos más de 280 ovejas, cerdos y monos que padecieron trastornos de alto sufrimiento antes de morir. Pero no fue hasta el pasado 10 de septiembre que Musk reconoció las muertes de los macacos, aunque negó que alguna de ellas fuera resultado de un implante Neuralink. “Somos extremadamente cuidadosos”, declaró en una presentación de la compañía. El grupo que ha denunciado ante la SEC afirma que los comentarios de Musk sobre las muertes de los animales fueron “engañosos, falsos” y que los inversores “merecen escuchar la verdad sobre la seguridad y comerciabilidad del producto de Neuralink”. La empresa ha recaudado más de 280 millones de dólares de inversores externos.
Advertisement
Desde septiembre de 2017 hasta finales de 2020, los experimentos de la compañía contaron con la ayuda del personal del Centro Nacional de Investigación de Primates de California. La revista estadounidense Wired ha publicado una investigación en la que ha reunido los registros del centro científico y el testimonio de un extrabajador de Neuralink. De acuerdo con los documentos, doce de los primates que se utilizaron para los estudios padecieron diarrea con sangre, parálisis parcial y edemas cerebrales antes de morir.
La investigación de Wired narra una batería de complicaciones que se desarrollaron luego de la implantación quirúrgica en el cerebro de los monos. Uno de ellos, identificado como “Animal 20″ en los registros veterinarios, se habría rascado en la herida de la operación, desprendiendo parte del dispositivo. Los investigadores realizaron una intervención para reparar el problema, pero las infecciones se arraigaron.Fue sacrificado el 6 de enero de 2020.
The first human patient will soon receive a Neuralink device. This ultimately has the potential to restore full body movement.
In the long term, Neuralink hopes to play a role in AI risk civilizational risk reduction by improving human to AI (and human to human) bandwidth by… https://t.co/DzqoYI27Ng
“Animal 15″ y “Animal 22″ también habrían muerto por los procedimientos del implante. La hembra “Animal 15″ presionaba la cabeza contra el suelo, como probable signo de dolor por una infección. Los veterinarios la observabanincómoda y tirando de su implante hasta sangrar. Pasó sus últimos días tumbada y tomada de la mano con su compañera de jaula. Otro mono más, el Animal 22, fue sacrificado en marzo de 2020 después de que su implante craneal se aflojara. La necropsia establece que “el fallo del implante puede considerarse puramente mecánico y no exacerbado por una infección”. Las fuentes de Wired, que pidieron mantenerse anónimas, sostienen que no pudieron morir por causas naturales y que los tuvieron bajo cuidado durante aproximadamente un año antes de realizarles cualquier cirugía: “Es difícil imaginar que estos monos, que no eran adultos, fueran terminales por alguna razón”.
Advertisement
Ahora Neuralink está un paso más cerca de colocar los implantes en personas y Elon Musk lo ha celebrado en la red social X (antes Twitter): “A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de la inteligencia artificial para la civilización, mejorando el ancho de banda desde el humano a la inteligencia artificial (y de humano a humano) en varios órdenes de magnitud. Imaginen si Stephen Hawking hubiera tenido esto”.
Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.
Usamos cookies en nuestro sitio web para brindarle la experiencia más relevante recordando sus preferencias y visitas repetidas. Al hacer clic en "Aceptar", acepta el uso de TODAS las cookies.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.