Connect with us

Tecnología

Esta es la opinión de analistas de bitcoin con inflación en Estados Unidos

Published

on

Hechos importantes:
  • Para Michael van de Poppe y Santino Crypto, bitcoin podría volver a probar $ 29,000.

  • Algunos operadores tienen la esperanza de que los mercados leerán mejor el próximo informe de inflación.

A medida que se publicó hoy el informe de inflación de EE. UU., varios analistas de Bitcoin (BTC) y otros mercados de criptomonedas dieron sus impresiones.

Incluido Scott Melker el Señaló frente a la inflación del 4,9% “Fue mejor de lo esperado” y las expectativas de que los precios de Bitcoin y el oro “vuelen”, Sugirió que esto se debe a una perspectiva más positiva en los Estados Unidos.

En definitiva, la inflación interanual en Estados Unidos cayó hasta el 4,9%, una cifra muy por debajo del 5% previsto que tocó el mes pasado. Así, según informa CriptoNoticias, la inflación interanual en la potencia estadounidense ha disminuido por décimo mes consecutivo. Y antes de eso, el precio de bitcoin aumentó de $ 27,700 a $ 28,400.

El precio de Bitcoin sube un 2% después del informe de inflación de EE. UU. Fuente: TradingView.

analista Michael van de Poppe estresado en que un resultado por debajo del 5% se espera que sea una “buena señal” y que “es excelente para estar por debajo de lo esperado”. sin embargo, aclarado que “las cifras intermensuales son peores de lo esperado y muestran que la inflación se mantiene firme”. Subió 0,4% mensual, lo que indica que la inflación aún no ha desaparecido.

Con este escenario, Michael cree que “tendremos un período prolongado” con datos similares y afectará a bitcoin. al principio creyó El aumento de las criptomonedas “tiene una gran respuesta” aunque todavía cree que podría caer a $ 26,800,

Advertisement

A su juicio, bitcoin necesita convertir USD 27.800 en su soporte (valor mínimo) y romper USD 29.200. Esta última cifra es “el factor decisivo ante nuevos máximos”, ya que no ha logrado mantenerse por encima de las veces que se cruzó en la última quincena, expresar Miguel.

Para el comerciante conocido como SantinoCripto, “Probablemente veamos Bitcoin a $ 29,000 hoy”, por lo que sostiene Dado que la inflación interanual es inferior a la esperada y Recurso que la Reserva Federal de los Estados Unidos (Fed) está cerca de hacer un pivote (cambio en la política monetaria) bajando las tasas de interés.

El presidente de la Fed, Jerome Powell, informó recientemente que la subida de tipos de mayo podría ser la última por ahora. Por ello, diversos analistas creen que BTC puede seguir repuntando hasta que la agencia defina su próxima decisión monetaria prevista para julio.

Los comerciantes esperan que Bitcoin responda mejor al próximo informe de inflación

De otra publicación, el empresario Daniel Muwadi enviado “La inflación se está calentando más de lo que pensaba” y “sin embargo, el mercado está reaccionando positivamente a la pequeña caída”. Aunque insistió en que Las lecturas del mercado serán “más sólidas” para los próximos dos informes de inflación que se publicarán en junio y julio.,

Del mismo modo, el analista del mercado de criptomonedas Juan Rodríguez Dicho Él Se espera que próximo informe de inflación sea “más positivo”, Por supuesto, esto es en caso de que continúe la caída, lo que podría ser a favor de Bitcoin.

Advertisement

Continue Reading
Advertisement

Tecnología

Un pantallazo no sirve: así se denuncia la ‘pornovenganza’ en la red | Tecnología

Published

on

Una pareja mantiene relaciones sexuales y uno de ellos lo graba. Más tarde, decide compartir ese vídeo con otras personas sin el permiso del otro. Es lo que le ocurrió a una menor de Gran Canaria con un jugador de la cantera del Real Madrid, que junto a otros tres compañeros, han sido acusados de un presunto delito de revelación de secretos, por grabar y difundir un vídeo de contenido sexual de la menor sin su autorización. En el caso de las 22 víctimas de Almendralejo, se difundieron imágenes de las menores con falsos desnudos creadas con inteligencia artificial. Uno de cada tres incidentes de ciberseguridad en España son una filtración de datos sensibles, protegidos o confidenciales, robados, según el Instituto Nacional de Ciberseguridad (INCIBE). En estos casos, tanto si es pornovenganza o un deepfake, ¿cómo se puede denunciar y evitar la difusión de este contenido?

Dejar constancia

El primer paso es dejar constancia de la publicación, según indica Pablo Duchement, perito judicial informático especialista en delitos en las redes perpetrados por y contra menores. “Tenemos que dejar constancia de la publicación porque si es a través de la web, el contenido puede desaparecer”, explica. Para ello, recomienda pedir un certificado digital de la publicación del contenido, de manera gratuita, a través de empresas como eGarante: “Con el certificado nadie puede poner en duda que la publicación que estaba ahí, y dónde estaba, y si se borra o se modifica, no pasa nada porque el propio certificado te sigue funcionando como prueba en un juicio”.

Mónica Cuellas, profesora de Derecho Penal Tecnológico en la Universitat Internacional de Catalunya (UIC) y abogada penalista, coincide con Duchement en que se debe pedir un certificado digital. Hacer una captura de pantalla de la publicación puede no ser insuficiente en un juicio. “Un pantallazo es fácilmente impugnable porque es fácilmente manipulable”, explica. Deja claro que lo más importante es “no borrar el contenido del dispositivo”. Para eso sirven estos testigos online, como los define INCIBE.

Advertisement

Además, en España INCIBE dispone de un teléfono gratuito, el 017, activo todos los días del año (de 8 de la mañana a 11 de la noche), para ayudar a resolver problemas de ciberseguridad, desde el punto de vista técnico, psicosocial y legal. También se puede contactar con ellos a través de WhatsApp (900116117), Telegram (@INCIBE017) y por email. El año pasado, la línea recibió más de 67.000 consultas.

Denunciar el contenido

El siguiente paso es denunciar el contenido ante las autoridades. Dirigirse a las Fuerzas y Cuerpos de Seguridad del Estado o a un juzgado de guardia, señala Cuellas. Si la situación la sufre un menor, tendrá que ser su familia o un tutor quien denuncie el contenido por él, explica Duchement. Las penas de cárcel a las que se enfrentan los autores son de hasta 1 año por difundir en internet contenido sexual de menores sin consentimiento, como delito de revelación de secretos, y de hasta 9 años por difundir imágenes sexuales de menores de 16 años creadas con inteligencia artificial, que podría considerarse delito de pornografía infantil, explica Cuellas. También se puede reclamar una indemnización por vía civil.

Solicitar la eliminación

En paralelo, se debe pedir al buscador que retire las imágenes personales, ya que el contenido explícito sigue haciendo daño mientras permanezca en la red. Si alguien aparece en imágenes de Google sin ropa, en un acto sexual o en una situación íntima, puede pedir al buscador que las retire. INCIBE recomienda contactar con la plataforma o página en la que detecte la publicación y pedir su eliminación. Si es necesario, se debe reportar la situación en la Hotline de INCIBE, y denunciar en el canal prioritario de la Agencia Española de Protección de Datos (AEPD). En el caso de las víctimas de Almendralejo, la AEPD ha abierto una investigación de oficio.

Las redes sociales también cuentan con sus canales de denuncia. Meta, además de poder denunciar el contenido desde su plataforma, lanzó en febrero una nueva herramienta para combatir el material sensible. Se llama Take it Down (quítalo, en inglés) y permite denunciar el contenido e impedir que la publicación se pueda compartir en otras plataformas, como Instagram, Facebook, Onlyfans o Pornhub. Instagram también tiene un apartado para proteger la información privada expuesta. TikTok recibió en septiembre una multa de 345 millones de euros de la Unión Europea por poner en riesgo los datos personales de menores en su plataforma. Pese a ello, tiene disponible un apartado de denuncia en su web.

Prevención

Para evitar estas situaciones en la red se pueden tomar ciertas medidas. Informar a personas cercanas sobre la difusión para que no les pase lo mismo, no confiar en desconocidos al enviar datos, imágenes o vídeos personales en internet y no ceder nunca a chantajes, son algunas de las recomendaciones de INCIBE para estos casos. Chequear periódicamente la información personal de cada uno publicada en internet, a través de buscadores y redes sociales, es otra buena práctica y se conoce como egosurfing.

Advertisement

En el caso de la difusión de imágenes falsas creadas con inteligencia artificial en internet, Duchement propone que los usuarios no publiquen sus imágenes personales. También recomienda que no se practique el sexting, es decir, el intercambio de contenido de carácter sexual a través de dispositivos. “Es más seguro ponerte desnudo delante de tu pareja, que enviarle una foto sin ropa”, asegura.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement
Continue Reading

Tecnología

Un grupo de médicos denuncia la muerte de una docena de monos en los ensayos de chips cerebrales de Elon Musk | Ciencia

Published

on

Un grupo de ética médica ha pedido este jueves que se investigue la muerte de una docena de monos en los ensayos de la empresa estadounidense Neuralink, que experimenta con implantes cerebrales. El magnate Elon Musk, fundador de esta compañía biotecnológica, afirmó el 10 de septiembre que algunos animales murieron por enfermedades terminales en las pruebas, pero el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado ante la Comisión de Bolsa y Valores de EE UU (SEC) que los primates fallecieron por complicaciones con los procedimientos del implante. Este martes, la empresa anunció que busca voluntarios para probar un chip cerebral en humanos, con el visto bueno de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA).

El proyecto Interfaz Cerebro-Computadora Precisa Implantada Robóticamente (PRIME, por sus siglas en inglés) de Neuralink tiene como objetivo que las personas con tetraplejia por lesiones en la médula espinal cervical, o por esclerosis lateral amiotrófica (ELA), controlen con la mente dispositivos externos. La promesa de Musk es revolucionar las prótesis con un implante que permita a los cerebros humanos comunicarse de forma inalámbrica con dispositivos artificiales, e incluso entre sí. En 2021, Neuralink publicó un vídeo de un mono jugando a un videojuego que copiaba la dinámica del pimpón. En el vídeo, con más de seis millones de reproducciones, un animal llamado Pager controlaba los mandos con la mirada. La compañía le había implantado dos chips seis meses antes. “Primero lo entrenamos para jugar con un mando, pero después se lo quitamos y le insertamos el Neuralink”, explicó Musk.

La empresa se fundó en 2017 y comenzó a hacer experimentos con animales luego de 12 meses. Hace un año, una investigación de la agencia Reuters indicó que la compañía había sacrificado alrededor de 1.500 animales, incluidos más de 280 ovejas, cerdos y monos que padecieron trastornos de alto sufrimiento antes de morir. Pero no fue hasta el pasado 10 de septiembre que Musk reconoció las muertes de los macacos, aunque negó que alguna de ellas fuera resultado de un implante Neuralink. “Somos extremadamente cuidadosos”, declaró en una presentación de la compañía. El grupo que ha denunciado ante la SEC afirma que los comentarios de Musk sobre las muertes de los animales fueron “engañosos, falsos” y que los inversores “merecen escuchar la verdad sobre la seguridad y comerciabilidad del producto de Neuralink”. La empresa ha recaudado más de 280 millones de dólares de inversores externos.

Advertisement

Desde septiembre de 2017 hasta finales de 2020, los experimentos de la compañía contaron con la ayuda del personal del Centro Nacional de Investigación de Primates de California. La revista estadounidense Wired ha publicado una investigación en la que ha reunido los registros del centro científico y el testimonio de un extrabajador de Neuralink. De acuerdo con los documentos, doce de los primates que se utilizaron para los estudios padecieron diarrea con sangre, parálisis parcial y edemas cerebrales antes de morir.

La investigación de Wired narra una batería de complicaciones que se desarrollaron luego de la implantación quirúrgica en el cerebro de los monos. Uno de ellos, identificado como “Animal 20″ en los registros veterinarios, se habría rascado en la herida de la operación, desprendiendo parte del dispositivo. Los investigadores realizaron una intervención para reparar el problema, pero las infecciones se arraigaron. Fue sacrificado el 6 de enero de 2020.

“Animal 15″ y “Animal 22″ también habrían muerto por los procedimientos del implante. La hembra “Animal 15″ presionaba la cabeza contra el suelo, como probable signo de dolor por una infección. Los veterinarios la observaban incómoda y tirando de su implante hasta sangrar. Pasó sus últimos días tumbada y tomada de la mano con su compañera de jaula. Otro mono más, el Animal 22, fue sacrificado en marzo de 2020 después de que su implante craneal se aflojara. La necropsia establece que “el fallo del implante puede considerarse puramente mecánico y no exacerbado por una infección”. Las fuentes de Wired, que pidieron mantenerse anónimas, sostienen que no pudieron morir por causas naturales y que los tuvieron bajo cuidado durante aproximadamente un año antes de realizarles cualquier cirugía: “Es difícil imaginar que estos monos, que no eran adultos, fueran terminales por alguna razón”.

Advertisement

Ahora Neuralink está un paso más cerca de colocar los implantes en personas y Elon Musk lo ha celebrado en la red social X (antes Twitter): “A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de la inteligencia artificial para la civilización, mejorando el ancho de banda desde el humano a la inteligencia artificial (y de humano a humano) en varios órdenes de magnitud. Imaginen si Stephen Hawking hubiera tenido esto”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tecnología

Así era el fin del mundo: madres frente a la inteligencia artificial y los nativos patriarcales | Tecnología

Published

on

“Inventar el velero es inventar el naufragio. Inventar el tren es inventar el accidente ferroviario por descarrilamiento”, escribía el filósofo Paul Virilio para expresar que todo desarrollo tecnológico genera, además de avances, sus propios accidentes. Mientras políticos, magnates y medios de comunicación todavía nos preguntamos qué es la inteligencia artificial (IA), un tren ha descarrilado en el patio de un instituto extremeño. “¿Puede ser el fin del mundo?”, reflexionamos, mientras la vida de varias niñas de Almendralejo quedaba al borde del precipicio, con sus falsos desnudos circulando de dispositivo en dispositivo.

Ha sido una coincidencia formidable la que hemos vivido. El mismo día en que la “realeza tecnológica” en pleno acudía encorbatada al Senado de EE UU para debatir sobre los peligros existenciales de las máquinas inteligentes, las madres de Almendralejo se organizaban contra la vileza que acosaba a sus hijas. Justo cuando los hombres más ricos del planeta pontificaban a puerta cerrada sobre el futuro de la humanidad, estas mujeres articulaban un grupo de autodefensa frente al accidente ferroviario que golpeaba sus vidas. Elon Musk (X), Sam Altman (OpenAI), Mark Zuckerberg (Meta), Satya Nadella (Microsoft) y Sundar Pichai (Google) se reunieron para regular la IA mirando al horizonte; sus consecuencias reales, dolorosas y tangibles están ya en los grupos de WhatsApp de una localidad pacense de poco más de 30.000 habitantes. De momento, que sepamos.

En los últimos meses, los desarrolladores de esta tecnología y los magnates que la impulsan han firmado cartas y manifiestos hablando de poner freno a los peligros de las máquinas pensantes. En ellas hablan de “mentes poderosas” fuera de control, de “cambio profundo en la historia de la vida en la Tierra”, de “riesgo de extinción” a la altura de las guerras nucleares. Ni una palabra sobre los millones de mujeres pornificadas contra su voluntad. Uno de los padres de esta ciencia, Geoffrey Hinton, abandonó Google para dedicarse a alertar de los riesgos abstractos de su creación; cuando le preguntaron por estos otros peligros tangibles, les restó importancia.

Advertisement

Pero el problema no es menor, ni tampoco es nuevo. En 2019, el Pleistoceno en términos tecnológicos, Barack Obama advertía del peligro que suponían para la democracia los deepfakes (recreaciones manipuladas de una persona real), que se habían popularizado precisamente con un vídeo falso en el que él mismo insultaba a Donald Trump. También ese año, los desarrolladores de la app Deepnude (juego de palabras con nude, desnudo en inglés) decidían sacarla del mercado, a pesar de que se estaban forrando después de generar cientos de miles de imágenes: “La probabilidad de que la gente haga un mal uso es demasiado alta. No queremos ganar dinero de esta manera”. Se trataba de un arrepentimiento forzado por la prensa, que había denunciado esa app “terrorífica que desnuda a una mujer en un solo clic”.

Parece poco creíble que no imaginaran, al desarrollar la herramienta, que se iba a usar para destrozarle la vida a mujeres. Entre el 90% y el 95% de todos los deepfakes son “porno no consentido” y el 90% afecta a mujeres, según un trabajo que realizó la compañía Sensity AI en 2019. Ya es llamativo que sea de ese año el último dato que tenemos, con todo lo que ha evolucionado este campo: en aquellos momentos las manipulaciones eran muy burdas, pero el realismo actual es atroz. Y lo es gracias en parte al desarrollo de modelos de IA generativa como Dall-E (de OpenAI, como ChatGPT), Midjournay y Stable Diffusion.

Paternalismo y servidores

Esta última, Stable Diffusion, apuesta por el código abierto, es decir, permite reusar libremente su arquitectura básica, lo que ha liberado al genio de la lámpara de los deepfakes que sexualizan a mujeres sin su consentimiento. La Red está inundada de foros en los que explican cómo aprovechar sus capacidades, de aplicaciones y canales en los que pornificar a mujeres, gratis o no. Emad Mostaque, responsable de esta empresa millonaria, tiene una respuesta para los críticos, según explicó al medio especializado TechCrunch: “Un porcentaje de personas son simplemente desagradables y raras, pero así es la humanidad. De hecho, creemos que esta tecnología prevalecerá, y la actitud paternalista y algo condescendiente de muchos aficionados a la IA es un error al no confiar en la sociedad”.

Sin embargo, su empresa mandó este mensaje a sus usuarios para defenderse de las críticas: “No generes nada que te avergonzaría mostrarle a tu madre”. Critica el paternalismo, pero usa el comodín de las madres, que bastante tienen con proteger a sus hijas frente a los desalmados. No es de extrañar que, por lo general, en todas las encuestas las mujeres recelen de las nuevas tecnologías mucho más que los hombres.

Pero esas herramientas dependen del músculo tecnológico de los grandes: Google (Pichai), Amazon (Jeff Bezos), X (Musk) y Microsoft (Nadela) poseen herramientas y plataformas que impulsan el reciente aumento de la pornografía deepfake, como denuncia Bloomberg: “Google, por ejemplo, es el principal impulsor de tráfico hacia sitios deepfake ampliamente utilizados, mientras que los usuarios de X, antes conocido como Twitter, hacen circular regularmente ese contenido. Amazon, Cloudflare y GitHub de Microsoft brindan servicios de alojamiento cruciales para estos sitios”.

Advertisement

Estos días ha coincidido otra tercera noticia: unos canteranos del Real Madrid que compartían vídeos sexuales de al menos dos chicas contra su voluntad. Quienes difundían los deepfakes en Almendralejo y estos aspirantes a futbolistas tienen al menos un par de cosas en común: la cosificación de las chicas que les rodean y la juventud. Supuestamente, se manejan a la perfección con herramientas tecnológicas porque son nativos digitales, un término que en los medios compramos durante años. Ahora ya nos consta que estas herramientas hay que aprender a usarlas, que nadie nace sabiendo wasapear, photoshopear o pornificar.

A toda esa generación, que tiene tecnologías en su mano que sus progenitores incluso desconocen, hay que enseñarles a usarlas y cómo usarlas: no solo qué botón apretar para editar una foto, sino qué comportamientos son tóxicos, indeseables, imperdonables. En línea y en persona. Los chavales viven en ese entorno tecnológico, pero no son nativos digitales, sino nativos patriarcales, por su cosificación y desprecio por las chicas. Hay que instruirles en el uso de las tecnologías y hacerlo implica enseñarles valores, humanidad y respeto a las mujeres. Educar a los críos que difunden estas imágenes, sí, pero también a quienes monetizan estas herramientas, desarrollan las apps y se lavan las manos con sus consecuencias cuando descarrila el tren y solo se lleva por delante a unas adolescentes.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement

Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.