Connect with us

Tecnología

Analista de demandas contra Binance y Coinbase

Published

on

Hechos importantes:
  • El director legal de Coinbase confía en que el intercambio encontrará un jugador justo en los tribunales.

  • Un actor de la industria dice: ‘La claridad regulatoria es algo que nadie esperaba, pero llegará’.

Las demandas presentadas esta semana por la Comisión de Bolsa y Valores de los Estados Unidos (SEC) contra las bolsas Binance y Coinbase están dejando nuevas pruebas de que el país carece de un marco regulatorio claro para supervisar la industria de las criptomonedas.

La demanda que involucra a los dos intercambios de criptomonedas con mayor número de usuarios en los Estados Unidos y el mundo, Hay que recorrer un largo y complicado camino para que el país por fin tenga reglas claras al mercado de criptomonedas. Esto está siendo advertido por abogados y analistas que siguen de cerca y están involucrados en las acciones recientes de la SEC.

Uno de estos actores es Paul Grewal, jefe legal de Coinbase. sobre la cuestión de¿Cuánto tiempo llevará resolver la disputa actual entre la SEC y los intercambios de criptomonedas?responde que será una larga batalla legal, “probablemente varios años”.

Agregó en un podcast del 8 de junio que, de hecho, Coinbase ha estado buscando claridad regulatoria durante mucho tiempo “porque antes de convertirnos en una empresa pública en 2021 (Coinbase cotiza en el Nasdaq) cEmpezamos a pedir claridad regulatoria Y también hay una petición formal que ahora es objeto de litigio en un tribunal federal.

Advertisement

La solicitud mencionada por Grewal fue presentada en julio del año pasado, y ahora el tribunal le pide a la SEC que responda en un plazo no mayor a siete días sobre algunos de los puntos solicitados por Coinbase.

Un caso que puede llegar hasta el Tribunal Supremo

En sí, el Tribunal quiere saber si la nueva demanda contra Coinbase significa que la SEC se está moviendo para denegar su solicitud de regulación explícita, o si es porque la agencia necesita más tiempo para evaluar la solicitud.

Martes después del 6 de junio La SEC acusa a Coinbase de violar las regulaciones y ofrecer valores no registrados A través de su servicio de participación, Grewal el Señaló Dijo en un tuit que la agencia “no puede continuar con el litigio si aún no ha decidido denegar nuestra solicitud de reglamentación”.

“Creemos que las reglas de tránsito, ya sea por ley o por creación de reglas o ambas, deben tener prioridad sobre las acciones de cumplimiento. Es por eso que solicitamos a la SEC hace aproximadamente un año la elaboración de reglas”.

Paul Graver, director jurídico de Coinbase.

Paul Grewal, director legal de Coinbase, confía en que los tribunales de EE. UU. proporcionarán a la industria un actor justo para resolver la disputa. Fuente: Sin bancos/YouTube.

Disputa entre la SEC y los intercambios de criptomonedas También puede llegar a la Corte Suprema de los Estados Unidos.Como Objetivo Kiran Nasir Gore, que es abogado litigante. Ella cree que el caso de Binance puede ser de interés para el tribunal, ya que involucra “acusaciones de irregularidades, desvío de fondos de clientes y mezcla inadecuada de activos”.

Advertisement

Sin embargo, el principal problema sigue siendo USA no tiene reglas claras Para aclarar qué activos son valiosos o cuáles no, y como comentan los expertos, la Corte Suprema puede brindar esa orientación.

“Tomará tiempo, pero la claridad regulatoria llegará”

Para Dan Morehead, fundador y socio gerente del fondo criptográfico Pantera Capital, “para bien o para mal”, la solución no llegará rápidamente. “Y así tómate todo el tiempo que necesites, lo importante es La SEC y la lucha entre los intercambios Binance y Coinbase traerán claridad regulatoria Que es lo único que nadie esperaba, pero sucederá de todos modos”, dijo.

Morehead teme que mientras la disputa se intensifique y la SEC siga siendo agresiva con la industria, el comercio de criptomonedas de EE. UU. cambiará a otras plataformas registradas en el extranjero.

“En un momento del año pasado, el 95 % de los activos digitales se comercializaron fuera de los Estados Unidos. Estoy de acuerdo en que los malos actores deben ser procesados, pero también hay que reconocer que la mayoría de las personas usan las criptomonedas para fines muy legítimos. Y es mejor si es así”. sucede en los Estados Unidos.

Dan Morehead, fundador de Pantera Capital.

Por su parte, Jay Clayton, exjefe de la SEC, dijo que “el escollo que vemos en el mercado de las criptomonedas es la creencia de que las nuevas tecnologías permitirán Escapando del marco regulatorio y convirtiéndose en un problema para el sistema financiero,

Advertisement

Clayton también estuvo de acuerdo en que el ecosistema de criptomonedas debería Una regulación ajustada a sus características para que brinde protección Para los usuarios, según explicó durante una entrevista emitida a través de Bloomberg Live.

Advertisement
Continue Reading
Advertisement

Tecnología

TikTok, Discord y el chat de la Play: así llegan los adolescentes a las aplicaciones para desnudar a sus compañeras | Tecnología

Published

on

Los adolescentes consumen porno. Es un hecho probado por datos y estudios, algo que lleva pasando toda la vida y que no sorprende a nadie. Aunque también esto, como muchos otros aspectos de la sociedad, ha evolucionado con la llegada de internet y de las redes sociales. Las revistas o las cintas que hace 20 años alguien enseñaba a escondidas a los amigos se han convertido en fotos y vídeos que los jóvenes se pasan por los chats de WhatsApp, o en enlaces de alguna plataforma pornográfica con millones de visitas diarias en todo el mundo. Y la tecnología no ha cambiado solamente el medio de consumo, sino también el tipo de contenido. El caso de los falsos desnudos de Almendralejo (Badajoz) es el ejemplo de cómo la inteligencia artificial (IA) ha generalizado la creación y difusión de imágenes pornográficas no consentidas, que ya no tienen como víctimas solamente a personas famosas, sino a gente de su propio entorno, como las compañeras de instituto. Una práctica que enciende muchas alarmas por la facilidad de acceso a estas aplicaciones, capaces de desnudar con un clic a cualquier persona que haya colgado una foto en internet.

“El mundo digital no es diferente del mundo analógico. Ahora, como antes, los jóvenes siguen accediendo al porno a través de los amigos que te enseñan algo. La única cosa que ha cambiado son las rutas de acceso, que han pasado a ser digitales”, resume Melchor Gómez, profesor de Tecnología educativa en la Universidad Autónoma de Madrid (UAM). Además de las plataformas más conocidas que forman parte del día a día de todo el mundo independientemente de la edad —WhatsApp, Instagram o Facebook—, hay otras de dominio casi exclusivo de los jóvenes, que es justamente donde Gómez invita a centrar la atención. “Son canales donde en general no hay adultos y donde los jóvenes han creado su propia jerga. Es como si fuera el patio de recreo o el punto donde se dan el encuentro cuando salen de noche. Pero ahora es el chat de la Play”, explica.

De hecho, el 51% de los adolescentes accede a los contenidos pornográficos por primera vez a través de los grupos de amigos, según un informe de Save the Children. Puede ser que se lo enseñe en su dispositivo (pasa en el 30% de los casos); que le hable de ello y lo busque por su cuenta (15%), o que lo reciba a través de grupos de mensajería o redes sociales (6,4%). Tampoco falta la exposición involuntaria, que con la utilización de internet y redes sociales se produce principalmente a través de las páginas y plataformas libres de descargas de series y películas, con los famosos anuncios pop-up.

Dentro de este mundo, la plataforma más popular para la Generación Z es Discord, apunta Gómez. Fundada en 2015 por un programador de videojuegos estadounidense que buscaba una forma para lanzar su estudio de desarrollo de juegos, la red social se hizo verdaderamente famosa durante la pandemia, cuando millones de jóvenes alrededor del globo, confinados en sus casas, buscaban un lugar para chatear con amigos y unirse a comunidades en línea. En tres años, se ha convertido en la plataforma favorita entre los gamers, gracias a la posibilidad de compartir pantalla y de poder jugar en línea con usuarios que no tienen la misma consola.

Advertisement
Captura de pantalla de una chat de Telegram para utilizar una app de inteligencia artificial.

Funciona a través de servidores, similares a los canales de Telegram o los grupos de Facebook, que pueden ser públicos —algunos de los cuales tienen millones de miembros— o privados. Suelen estar dedicados a discutir juegos específicos o empezar conversaciones sobre la música, las series de televisión o el arte. “En general, no se trata de algo preocupante o fuera de control. Son chats como muchos otros, es la forma que tienen los jóvenes al día de hoy para comunicarse entre iguales”, asegura Gómez. Los servidores privados, sin embargo, pueden ser más problemáticos.

Cuentan con comunidades limitadas, a veces formadas por amigos que se conocen en persona y que usan esta plataforma para enviarse mensajes mientras están en línea. Por el hecho de ser más pequeños y que hace falta una invitación para unirse, suelen carecer de la supervisión por parte de la plataforma. Hace unos meses, Discord estuvo involucrada en un caso de filtración de cientos de documentos clasificados de Estados Unidos, que un joven de 21 años compartió en un servidor privado dedicado a videojuegos, memes y bromas racistas. Es la misma red social que un profesor universitario utilizó para hablar con una chica de 14 años de Albacete a la que secuestró durante una semana.

No se trata, sin embargo, de la única ruta de acceso que emplean los más jóvenes. Una búsqueda en TikTok de palabras claves ligadas al caso de Almendralejo reconduce a vídeos sobre aplicaciones y páginas web que sirven para modificar fotografías. Algunos alertan de los peligros de implementar ciertas prácticas, mientras que otros explican cómo usarlas, como un vídeo corto en el que un chico sonreía mientras se mostraba un rótulo con la dirección de una web en la que producir desnudos. “La he usado con mi compi de clase”, escribía un usuario en los comentarios sobre una app que se vende en la web como “la IA más poderosa de deepfake” con la cual “podrás ver desnuda a cualquier chica con un solo clic”. Ese vídeo fue retirado de la plataforma después de que EL PAÍS preguntara cuál es la política de moderación con contenidos como ese. Fuentes de la red social china aseguran que la actividad de índole sexual está prohibida. Un primer filtro lo aplican herramientas automáticas, al que se añade luego la monitorización humana y las denuncias de los propios usuarios.

Vigilar con responsabilidad

Aunque no sea tan popular entre los jóvenes como Discord o TikTok, también Telegram tiene sus canales oscuros. Algunas de estas aplicaciones de IA tienen grupos con centenares de miles de inscritos que permiten acceder a la web directamente desde la plataforma de mensajería. La supervisión es prácticamente inexistente, ya que para acceder hay que confirmar ser mayor de 18 años pinchando en un botón, sin otros tipos de control ni mucha dificultad. “Esto es lo peor. Estas cosas no son para nada complejas. Para un chaval moderno, utilizarlo es tan fácil como ir en bici. Lo que pasa es que los padres viven en mundos paralelos y no hacen el esfuerzo de interesarse en qué hacen los hijos cuando están conectados”, lamenta Talía Rodríguez Martelo, profesora de la Universidad de Vigo experta en temas de educación digital.

Rodríguez alerta de que herramientas como el control parental resultan inútiles con los adolescentes, aunque reconoce que es un mecanismo necesario para limitar el uso que hacen los más pequeños de los contenidos web. “Por cada control parental, a ciertas edades se saben veinte trucos más que tú. Allí está la brecha generacional, en que un joven de 15 años sepa mucho más que sus padres, por el simple hecho de haber nacido rodeado de la tecnología”, explica.

Advertisement

En estos caso, Rodríguez reconoce que la prohibición no lleva a ningún lado, y que la forma más eficaz de vigilar los propios hijos es compartiendo con ellos el tiempo que pasan con las pantallas. “El diálogo es fundamental, pero no puede estar dirigido solo a temas serios. Hay que acompañarle también en las cosas que le interesan solo a ellos y saber de qué están hablando cuando nombran a este u otro streamer. Saber cuáles son los contenidos que comparten”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tecnología

Un pantallazo no sirve: así se denuncia la ‘pornovenganza’ en la red | Tecnología

Published

on

Una pareja mantiene relaciones sexuales y uno de ellos lo graba. Más tarde, decide compartir ese vídeo con otras personas sin el permiso del otro. Es lo que le ocurrió a una menor de Gran Canaria con un jugador de la cantera del Real Madrid, que junto a otros tres compañeros, han sido acusados de un presunto delito de revelación de secretos, por grabar y difundir un vídeo de contenido sexual de la menor sin su autorización. En el caso de las 22 víctimas de Almendralejo, se difundieron imágenes de las menores con falsos desnudos creadas con inteligencia artificial. Uno de cada tres incidentes de ciberseguridad en España son una filtración de datos sensibles, protegidos o confidenciales, robados, según el Instituto Nacional de Ciberseguridad (INCIBE). En estos casos, tanto si es pornovenganza o un deepfake, ¿cómo se puede denunciar y evitar la difusión de este contenido?

Dejar constancia

El primer paso es dejar constancia de la publicación, según indica Pablo Duchement, perito judicial informático especialista en delitos en las redes perpetrados por y contra menores. “Tenemos que dejar constancia de la publicación porque si es a través de la web, el contenido puede desaparecer”, explica. Para ello, recomienda pedir un certificado digital de la publicación del contenido, de manera gratuita, a través de empresas como eGarante: “Con el certificado nadie puede poner en duda que la publicación que estaba ahí, y dónde estaba, y si se borra o se modifica, no pasa nada porque el propio certificado te sigue funcionando como prueba en un juicio”.

Mónica Cuellas, profesora de Derecho Penal Tecnológico en la Universitat Internacional de Catalunya (UIC) y abogada penalista, coincide con Duchement en que se debe pedir un certificado digital. Hacer una captura de pantalla de la publicación puede no ser insuficiente en un juicio. “Un pantallazo es fácilmente impugnable porque es fácilmente manipulable”, explica. Deja claro que lo más importante es “no borrar el contenido del dispositivo”. Para eso sirven estos testigos online, como los define INCIBE.

Advertisement

Además, en España INCIBE dispone de un teléfono gratuito, el 017, activo todos los días del año (de 8 de la mañana a 11 de la noche), para ayudar a resolver problemas de ciberseguridad, desde el punto de vista técnico, psicosocial y legal. También se puede contactar con ellos a través de WhatsApp (900116117), Telegram (@INCIBE017) y por email. El año pasado, la línea recibió más de 67.000 consultas.

Denunciar el contenido

El siguiente paso es denunciar el contenido ante las autoridades. Dirigirse a las Fuerzas y Cuerpos de Seguridad del Estado o a un juzgado de guardia, señala Cuellas. Si la situación la sufre un menor, tendrá que ser su familia o un tutor quien denuncie el contenido por él, explica Duchement. Las penas de cárcel a las que se enfrentan los autores son de hasta 1 año por difundir en internet contenido sexual de menores sin consentimiento, como delito de revelación de secretos, y de hasta 9 años por difundir imágenes sexuales de menores de 16 años creadas con inteligencia artificial, que podría considerarse delito de pornografía infantil, explica Cuellas. También se puede reclamar una indemnización por vía civil.

Solicitar la eliminación

En paralelo, se debe pedir al buscador que retire las imágenes personales, ya que el contenido explícito sigue haciendo daño mientras permanezca en la red. Si alguien aparece en imágenes de Google sin ropa, en un acto sexual o en una situación íntima, puede pedir al buscador que las retire. INCIBE recomienda contactar con la plataforma o página en la que detecte la publicación y pedir su eliminación. Si es necesario, se debe reportar la situación en la Hotline de INCIBE, y denunciar en el canal prioritario de la Agencia Española de Protección de Datos (AEPD). En el caso de las víctimas de Almendralejo, la AEPD ha abierto una investigación de oficio.

Las redes sociales también cuentan con sus canales de denuncia. Meta, además de poder denunciar el contenido desde su plataforma, lanzó en febrero una nueva herramienta para combatir el material sensible. Se llama Take it Down (quítalo, en inglés) y permite denunciar el contenido e impedir que la publicación se pueda compartir en otras plataformas, como Instagram, Facebook, Onlyfans o Pornhub. Instagram también tiene un apartado para proteger la información privada expuesta. TikTok recibió en septiembre una multa de 345 millones de euros de la Unión Europea por poner en riesgo los datos personales de menores en su plataforma. Pese a ello, tiene disponible un apartado de denuncia en su web.

Prevención

Para evitar estas situaciones en la red se pueden tomar ciertas medidas. Informar a personas cercanas sobre la difusión para que no les pase lo mismo, no confiar en desconocidos al enviar datos, imágenes o vídeos personales en internet y no ceder nunca a chantajes, son algunas de las recomendaciones de INCIBE para estos casos. Chequear periódicamente la información personal de cada uno publicada en internet, a través de buscadores y redes sociales, es otra buena práctica y se conoce como egosurfing.

Advertisement

En el caso de la difusión de imágenes falsas creadas con inteligencia artificial en internet, Duchement propone que los usuarios no publiquen sus imágenes personales. También recomienda que no se practique el sexting, es decir, el intercambio de contenido de carácter sexual a través de dispositivos. “Es más seguro ponerte desnudo delante de tu pareja, que enviarle una foto sin ropa”, asegura.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement
Continue Reading

Tecnología

Un grupo de médicos denuncia la muerte de una docena de monos en los ensayos de chips cerebrales de Elon Musk | Ciencia

Published

on

Un grupo de ética médica ha pedido este jueves que se investigue la muerte de una docena de monos en los ensayos de la empresa estadounidense Neuralink, que experimenta con implantes cerebrales. El magnate Elon Musk, fundador de esta compañía biotecnológica, afirmó el 10 de septiembre que algunos animales murieron por enfermedades terminales en las pruebas, pero el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado ante la Comisión de Bolsa y Valores de EE UU (SEC) que los primates fallecieron por complicaciones con los procedimientos del implante. Este martes, la empresa anunció que busca voluntarios para probar un chip cerebral en humanos, con el visto bueno de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA).

El proyecto Interfaz Cerebro-Computadora Precisa Implantada Robóticamente (PRIME, por sus siglas en inglés) de Neuralink tiene como objetivo que las personas con tetraplejia por lesiones en la médula espinal cervical, o por esclerosis lateral amiotrófica (ELA), controlen con la mente dispositivos externos. La promesa de Musk es revolucionar las prótesis con un implante que permita a los cerebros humanos comunicarse de forma inalámbrica con dispositivos artificiales, e incluso entre sí. En 2021, Neuralink publicó un vídeo de un mono jugando a un videojuego que copiaba la dinámica del pimpón. En el vídeo, con más de seis millones de reproducciones, un animal llamado Pager controlaba los mandos con la mirada. La compañía le había implantado dos chips seis meses antes. “Primero lo entrenamos para jugar con un mando, pero después se lo quitamos y le insertamos el Neuralink”, explicó Musk.

La empresa se fundó en 2017 y comenzó a hacer experimentos con animales luego de 12 meses. Hace un año, una investigación de la agencia Reuters indicó que la compañía había sacrificado alrededor de 1.500 animales, incluidos más de 280 ovejas, cerdos y monos que padecieron trastornos de alto sufrimiento antes de morir. Pero no fue hasta el pasado 10 de septiembre que Musk reconoció las muertes de los macacos, aunque negó que alguna de ellas fuera resultado de un implante Neuralink. “Somos extremadamente cuidadosos”, declaró en una presentación de la compañía. El grupo que ha denunciado ante la SEC afirma que los comentarios de Musk sobre las muertes de los animales fueron “engañosos, falsos” y que los inversores “merecen escuchar la verdad sobre la seguridad y comerciabilidad del producto de Neuralink”. La empresa ha recaudado más de 280 millones de dólares de inversores externos.

Advertisement

Desde septiembre de 2017 hasta finales de 2020, los experimentos de la compañía contaron con la ayuda del personal del Centro Nacional de Investigación de Primates de California. La revista estadounidense Wired ha publicado una investigación en la que ha reunido los registros del centro científico y el testimonio de un extrabajador de Neuralink. De acuerdo con los documentos, doce de los primates que se utilizaron para los estudios padecieron diarrea con sangre, parálisis parcial y edemas cerebrales antes de morir.

La investigación de Wired narra una batería de complicaciones que se desarrollaron luego de la implantación quirúrgica en el cerebro de los monos. Uno de ellos, identificado como “Animal 20″ en los registros veterinarios, se habría rascado en la herida de la operación, desprendiendo parte del dispositivo. Los investigadores realizaron una intervención para reparar el problema, pero las infecciones se arraigaron. Fue sacrificado el 6 de enero de 2020.

“Animal 15″ y “Animal 22″ también habrían muerto por los procedimientos del implante. La hembra “Animal 15″ presionaba la cabeza contra el suelo, como probable signo de dolor por una infección. Los veterinarios la observaban incómoda y tirando de su implante hasta sangrar. Pasó sus últimos días tumbada y tomada de la mano con su compañera de jaula. Otro mono más, el Animal 22, fue sacrificado en marzo de 2020 después de que su implante craneal se aflojara. La necropsia establece que “el fallo del implante puede considerarse puramente mecánico y no exacerbado por una infección”. Las fuentes de Wired, que pidieron mantenerse anónimas, sostienen que no pudieron morir por causas naturales y que los tuvieron bajo cuidado durante aproximadamente un año antes de realizarles cualquier cirugía: “Es difícil imaginar que estos monos, que no eran adultos, fueran terminales por alguna razón”.

Advertisement

Ahora Neuralink está un paso más cerca de colocar los implantes en personas y Elon Musk lo ha celebrado en la red social X (antes Twitter): “A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de la inteligencia artificial para la civilización, mejorando el ancho de banda desde el humano a la inteligencia artificial (y de humano a humano) en varios órdenes de magnitud. Imaginen si Stephen Hawking hubiera tenido esto”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.