El inicio de las clases en la Universidad de Nueva León fue catalogado como “un hecho histórico”.
La senadora Indira Kempis dijo que trabaja para que la educación sobre BTC llegue a todo el país.
Con más de 250 estudiantes de educación media superior o preparatoria, iniciaron las clases del Diplomado sobre Bitcoin en la Universidad Autónoma de Nuevo León de la ciudad de Santiago al noreste de México.
El programa que comenzó a impartirse ayer marca el despegue del aprendizaje sobre Bitcoin dirigido a los estudiantes del sistema educativo públicode México, de acuerdo con la información compartida en Twitter por la senadora Indira Kempis.
“Lo soñamos, lo planeamos, ahora es realidad en una comunidad y para la juventud. Estoy agradecida con todas las personas que nos confían esta oportunidad histórica de hacer realidad estas lecciones sobre Bitcoin”, dijo la legisladora. Ella cree que la educación sobre el efectivo electrónico peer to peer es necesaria para que su país alcance un futuro mejor.
El Diplomado impartido en México tiene el objetivo de capacitar a los estudiantes de la escuela preparatoria número 20 de Santiago. La institución forma bachilleres a nivel técnico en contaduría, programación web y sistemas eléctricos, tal como lo explicó a CriptoNoticias el profesor de Mi Primer Bitcoin, Roberto Magaña García.
Advertisement
El plantel forma parte de la Universidad Autónoma de Nuevo León y ambas son dependencias de educación media superior del sistema público de México, que ahora incluye a Bitcoin como parte de su plan académico.
Indira Kempis publicó una gráfica que muestra que los estudiantes de la Preparatoria número 20 ahora cuentan con un cajero automático de Bitcoin. Fuente: Indira Kempis/Twitter.
Educación gratuita y pública sobre Bitcoin para México
El plan de estudios que se compone de 10 capítulos, con una frecuencia de uno por semana, será completado en menor tiempo en México. “Estamos compactando el programa para dictar tres capítulos por semana con la idea de finalizar el 15 de septiembre coincidiendo con las fiestas patrias por el aniversario del llamado Grito de Independencia”, agregó Magaña García.
El paso de introducir la educación sobre Bitcoin en el sistema educativo público de México se da 10 meses después de que Mi Primer Bitcoin manifestara sus planes de expansión hacia otros países de la región, como lo reportó CriptoNoticias en su momento.
La Organización no gubernamental (ONG) salvadoreña que consolidó su modelo educativo llevándolo a todos los rincones de la nación centroamericana, ahora se propone trascender a nivel mundial.
Por esa razón, es posible descargar de forma gratuita el Diplomado de Bitcoin en la cuenta oficial de la organización salvadoreña.
Advertisement
Por su lado, la senadora Indira Kempis, quien ha dicho que bitcoin será moneda de curso legal en México, sí o sí, tiene en mente replicar en México otro proyecto que se ha puesto en marcha en El Salvador. Este se ha dado con la firma de un convenio entre el Ministerio de Educación del país centroamericano y la Oficina Nacional de Bitcoin para que 150 maestros de escuelas públicas aprendan sobre la primera de las criptomonedas.
Kempis además se propone llevar la educación sobre Bitcoin a todo el territorio mexicano, como una manera de liberar a la población del sistema financiero tradicional que que solo empobrece a las personas.
Imagen de la portada de una web que ofrece la posibilidad de desnudar a cualquiera en segundos.
Los deepfakes, reproducciones hiperrealistas que la inteligencia artificial ha llevado a límites inauditos de accesibilidad y difusión, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. “Todos podemos ser víctimas. Internet es la selva. No hay control y no es un juego: es un delito”, advierte la presidenta de la federación extremeña de padres y madres de alumnos Freapa, Maribel Rengel. El informe más citado, realizado por Deeptrace, rastreó hasta medio millón de archivos falsos en la red mundial con un crecimiento de casi el 100% cada seis meses. Pero es solo el trabajo de una entidad. El volumen real se desconoce. Sí se sabe que el 96% es pornografía y que estas creaciones han saltado del ámbito de la imagen a la voz, a los textos, a los documentos y al reconocimiento facial, o la combinación de todos, hasta convertirse en uno de los vectores emergentes de fraude más preocupantes a partir de una tecnología aún sin regular.
El Instituto Europeo de Normas de Telecomunicaciones (ETSI por sus siglas en inglés) advierte en uno de los informes más completos y actualizados de los peligros del “cada vez más fácil” uso de la inteligencia artificial en la creación de archivos falsos. La ETSI, formada por más de 900 entidades de todo ámbito, alerta: “Debido a los avances significativos en la aplicación de la inteligencia artificial a la generación y modificación de datos, han surgido nuevas amenazas que pueden conducir a riesgos sustanciales en diversos entornos que van desde la difamación personal y la apertura de cuentas bancarias utilizando identidades falsas (mediante ataques a los procedimientos de autenticación biométrica) hasta campañas para influir en la opinión pública”. Estos son los principales objetivos:
Pornografía. “La tecnología deepfake se usa como arma contra las mujeres al insertar sus rostros en la pornografía. Es aterrador, vergonzoso, degradante y silenciador. Los vídeos de sexo deepfake dicen a las personas que sus cuerpos no son suyos y pueden dificultar sus relaciones en línea, la obtención o mantenimiento de un trabajo o que se sientan seguros”, afirma Danielle Citron, profesora de derecho en la Universidad de Boston, y autora de Crímenes de odio en el ciberespacio (Hate Crimes in Cyberspace)
Rengel lo comparte tras el caso que ha afectado a un instituto de su comunidad. “La sensación es de vulnerabilidad y es muy difícil de controlar. Los daños son irreparables. Pueden arruinar la vida de una niña”, afirma la representante extremeña para exigir, de forma urgente, un pacto de Estado que regule el uso de esta tecnología.
Advertisement
Estos ataques consisten en la difusión de vídeos, imágenes, audio o texto falsos en las redes sociales para arruinar la reputación de la víctima o humillarla. El informe de Deeptrace calculaba el número de reproducciones de este material en más de 134 millones. Mujeres conocidas han sido víctima de estas prácticas desde hace años. La cantante Rosalía ha sido la última víctima española más conocida de una larga lista internacional que encabezó Emma Watson y Natalie Portman.
Pero como advierte Rengel, “nadie está libre”. A golpe de clic, en plataformas en abierto o en sistemas de mensajería cifrada se pueden encontrar aplicaciones y páginas que ofrecen “desnudar a cualquiera” en segundos. Advierten que es para mayores de 18 y que no se pueden usar fotos de una persona sin su consentimiento, aunque no lo comprueban, descargan la responsabilidad en el usuario y afirman que el objetivo es “el entretenimiento”.
This is the frame leaked by the streamer, where a chrome tab containing an adult site featuring a deepfake video of Pokimane and Maya Higa can be seen pic.twitter.com/IeWwA8BmUP
El creador de contenidos Brandon Ewing, conocido como Atrioc, fue sorprendido en directo a principios de año con una página de deepfakes pornográficos con recreaciones falsas de sus colegas Pokimane, Maya Higa y Blaire (pide eludir el apellido para proteger a la familia), conocida como QTCinderella. Ewing alegó que la consulta fue “accidental”, pero la reacción de las víctimas fue demoledora.
Higa afirmó sentirse “asqueada, vulnerable y ultrajada”. QTCinderella publicó un impactante vídeo de repulsa: “Aunque no es mi cuerpo, bien podría serlo. Fue la misma sensación de una violación. ¡La constante explotación y cosificación de las mujeres agota!”. Pokimane recordó la necesidad de “consentimiento para determinadas prácticas, como sexualizar a las mujeres”.
Advertisement
La Oficina Federal de Investigación de Estados Unidos (FBI) ha alertado del aumento de ciberdelincuentes que emplean las imágenes y vídeos de las redes sociales para elaborar deepfakes con los que acosar y extorsionar a las víctimas.
Bulos para influir en la opinión pública. “Los deepfakes ya están desestabilizando los procesos políticos. Sin contramedidas defensivas, la integridad de las democracias de todo el mundo está en riesgo”, afirma Giorgio Patrini, fundador de Deeptrace.
El informe de ETSI identifica estos ataques como publicaciones falsas que crean la impresión de que personas que ocupan cargos influyentes han escrito, dicho o hecho ciertas cosas. “Se aplica a todos los propósitos donde hay mucho en juego y el beneficio justifica el esfuerzo desde la perspectiva de un atacante”, alerta la entidad. Pueden utilizarse para el desprestigio de un personaje, manipular precios, atacar a competidores, influir en la opinión pública en el período previo a las elecciones o plebiscitos, fortalecer el alcance de una campaña de desinformación y como propaganda, especialmente en tiempos de guerra.
As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes.
I’ve seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a
En marzo de 2022, se publicó un video deepfake del presidente ucraniano Volodímir Zelenski donde anunciaba la capitulación ante la invasión rusa de Ucrania. La política estadounidense Nancy Pelosy ha sufrido otro en el que parecía borracha y ni Donald Trump ni Barack Obama se han librado de creaciones similares.
Ataques a la autenticidad. Se dirige explícitamente a los procedimientos de identificación y autenticación biométrica remota. Tales procedimientos son de uso generalizado en muchos países para dar a los usuarios acceso a servicios digitales, como abrir cuentas bancarias, porque reducen los costos y facilitan la contratación de productos.
En 2022, un grupo de hackers (piratas informáticos) denominado Chaos Computer Club ejecutó ataques exitosos contra procedimientos de identificación de vídeo aplicando métodos deepfake.
Seguridad en internet. Muchos ataques se fundamentan en el error humano para acceder a los sistemas corporativos, como el reciente secuestro sufrido por el Ayuntamiento de Sevilla. Pero los archivos falsos hiperrealistas multiplican la capacidad de acceso al aportar formas falsas de identificación de difícil identificación. Pueden involucrar textos con el estilo del supuesto remitente, voz o videos de las personas que supuestamente se comunican con las víctimas del ataque. El objetivo es que las víctimas pinchen en enlaces maliciosos, que los atacantes pueden usar para obtener credenciales de inicio de sesión o para distribuir malware (programas maliciosos).
Un gerente de banco en Hong Kong fue engañado en 2020 por atacantes que falsificaron la voz de un director de la entidad para lograr una transferencia de 35 millones de dólares, según informó Forbes. Una compañía de energía en el Reino Unido también sufrió un ataque similar un año antes que le costó 243.000 dólares.
Advertisement
Cine con falsos actores y guionistas. En el área artística, esta tecnología se puede utilizar para crear contenido cinematográfico. El sindicato SAG-AFTRA, que agrupa a 160.000 trabajadores de la industria del entretenimiento, convocó una huelga en Hollywood el pasado julio para reclamar, además de mejores remuneraciones, garantías de protección ante el uso de la inteligencia artificial en las producciones.
Tanto actores como escritores demandan la regulación de tecnologías que pueden escribir una historia o reemplazar actores mediante el uso del deepfake, que permite replicar el físico, voz y movimientos de una persona. La generalización de estas herramientas permitiría a las grandes productoras prescindir de seres humanos en la creación de contenidos.
El actor británico Stephen Fry, narrador de los audiolibros de Harry Potter en Reino Unido, ha denunciado el uso de su voz sin su consentimiento en un documental. “Podrían hacerme leer cualquier cosa. Desde un mensaje para asaltar el parlamento hasta secuencias de porno duro. Todo sin mi conocimiento y sin mi permiso”, ha declarado.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Siempre que entro en modo agorera (una especie Casandra tecnológica), hay un memo que viene a hacerme mansplaining para revelarme una verdad ignota para mí, mujer, que se expresa con palabras contundentes en el ágora, reprobándome, sin darse cuenta o dándose, de que me haya arrogado el derecho a plantar la chancla. Esa verdad es que el cuchillo no mata, mata el hombre. Quién podría defenderse ante estas palabras pronunciadas por varón en el uso de la reflexión pública, de su estricta propiedad. Quiénes se han creído los de letras para llevarle la contraria a los ingenieros, estandartes del progreso tsunámico, inventores de la luz eléctrica y del motor de combustión.
Lo que suele olvidar el memo, como es obvio, es que, si el instrumento en cuestión no tuviera un extremo punzante, uno o dos lados cortantes, y no se vendiera en las tiendas de cualquier barrio, pueblo o pedanía, no sería apto para matar a cualquiera en cualquier momento. Antes de que el memo, que como buen tonto no se calla ni debajo del agua, me diga que no vamos a prohibir los cuchillos ni le vamos a poner puertas al campo, me gustaría traer aquí la siguiente reflexión que, sin duda, no le hará cambiar de opinión.
El argumento de “mata el hombre, no el instrumento” es usado de manera recurrente por la Asociación Nacional del Rifle estadounidense (junto con una interpretación extrema de la Segunda Enmienda) para evitar la limitación de cualquier tipo del uso de armas de fuego. Con tal de seguir haciendo caja, son capaces de echar la culpa al problema de salud mental del país (en el que, por cierto, no están dispuestos a gastarse un duro) antes que reconocer que la única función de un arma es herir o matar. No vale para cortar un bistec ni para abrir una caja después de una mudanza. Es apta únicamente para causar 31.059 muertos en EE UU en lo que llevamos de 2023, según el Gun Violence Archive, una web que contabiliza los muertos por arma de fuego en tiempo real en ese país.
Advertisement
Como en Europa sí le ponemos puertas al campo (así somos de maniáticos), la posesión y el uso de armas de fuego están fuertemente limitadas porque somos conscientes, precisamente, de que son instrumentos para matar. Es más, en España, según el Reglamento de armas, un particular solo puede poseer o portar navajas o cuchillo de menos de once centímetros y con un solo filo; las navajas automáticas y de doble filo están prohibidas, y ningún ciudadano puede “poseer cuchillos, machetes y demás armas blancas que formen parte de armamentos debidamente aprobados por autoridades u organismos competentes”.
Gracias al culmen de la evolución cultural que es el Derecho, evitamos que muchas personas mueran simplemente limitando la disponibilidad de herramientas que tienen la capacidad de matar. A nadie se le ocurre limitar el número de personas aptas para matar como solución al problema porque nos quedaríamos solos. Muchos imaginamos la masacre que sería una reunión de comunidad de propietarios si estas prohibiciones no existieran y, con ellas, la limitación de acceso o adquisición de armas o cuchillos aptos para rebanar el cuello al vecino que pone un arcón frigorífico en el trastero.
Pues lo mismo pasa con la tecnología. La hay de un solo uso, militar, y de doble uso, civil y militar, como la criptografía; de la que solo se puede usar en entornos de salud, bajo prescripción y control de un médico, como una bomba de insulina o un marcapasos; o sobre las que pesan prohibiciones internacionales, como la de clonar un ser humano. Cuando somos capaces de analizar los riesgos, somos capaces de limitarlos y gestionarlos a través de la regulación.
Y luego está esa tecnología de datos, comunicación e internet que usa cualquiera porque han nacido, crecido y madurado, silenciosamente, a base de ciclos de dopamina, alrededor de instrumentos a los que no se les ha presumido ningún peligro. Quién sospecharía que hay un riesgo existencial en la evolución del teléfono de baquelita o del yeyé modelo “Góndola”. O quién habría visto con malos ojos la evolución en ordenador personal de las tarjetas perforadas que permitieron al hombre pisar la luna. Nadie. La tecnología es neutra, fría, desapasionada, y, por lo tanto, benéfica. Bueno, sí, los milmillonarios que interrogan a Douglas Rushkoff sobre cómo sobrevivir en sus búnkeres a los Navy Seals contratados para protegerlos.
Esos que se han enriquecido poniendo a disposición de niños de ocho años herramientas que les educa en que los bukakes son una manera normal de relacionarse con las niñas; que permiten a adolescentes de once años sacarse fotos cada treinta segundos y compartirlas con miles de millones de personas; o los que prestan un servicio gratuito de niñera para padres enganchados al WhatsApp. Ellos son los que les culpan por hacer mal uso de apps que, gracias a la democratización de la API de las IA fundacionales, convierten una foto inocente en el desnudo de una menor de Almendralejo. Los mismos, en definitiva, que han liberado para un uso de consumo una tecnología que no debería de haber salido de entornos profesionales altamente controlados y que no deberían ser operadas por cualquiera.
Advertisement
Puedo esconder una chuche en el maletín nuclear y culpar a mi perra de la extinción de la humanidad por haber pulsado el botón mientras intentaba hacerse con ella. Podría hacerlo, si fuera una milmillonaria psicópata, pero como soy una abogada de andar por casa, lo que haré es no dejarle nada letal a su alcance ni usar sus impulsos básicos, precisamente los que yo he entrenado, para culparla por ello. Porque, querido amigo memo, las armas matan y la IA no debería estar accesible para unos adolescentes criados por YouPorn.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
WhatsApp sigue su proceso de transformación en la aplicación total. La compañía pondrá en marcha “en las próximas semanas” nuevas funciones dirigidas a que el usuario pueda realizar acciones en la aplicación que vayan mucho más allá de escribir en el chat. Por ejemplo, elegir un asiento en el tren, pedir comida o reservar cita o mesa, todo a través de formularios personalizables que cada empresa puede adaptar.
“Esto le da a los negocios la habilidad de crear experiencias a medida dentro de las propias conversaciones que mantengan con sus clientes. Por ejemplo, un banco puede usar nuestras plantillas para que sus clientes pidan cita para abrir una cuenta o una aerolínea puede ofrecer a los pasajeros que hagan el check-in y elijan asiento desde WhatsApp”, dijo el fundador y CEO de Meta, Mark Zuckerberg, durante una presentación en Bombay.
El objetivo es que el usuario no salga de WhatsApp, que haga más cosas dentro de la aplicación. “La gente podrá hacer gestiones de forma mucho más rápida y cómoda, sin tener que saltar a otras apps o webs para completar sus acciones”, asegura Zuckerberg. Cuanto más tiempo se dedique a WhatsApp y cuanta más rica sea la actividad que llevan a cabo en la aplicación, mejor se le puede vender a las empresas la versión de pago.
En la imagen, reserva de un viaje y selección de asiento sin salir del chat que el usuario mantiene con la empresa.
La compañía trabaja también en un sistema de verificación de empresas que, de forma parecida a X (antigua Twitter), mostrará un sello azul en las que se registren y demuestren su autenticidad. El objetivo es dar más confianza a los usuarios de que hablan con el interlocutor correcto. Eso es importante para lograr que WhatsApp se convierta poco a poco en la aplicación en la que no solo hablamos, sino también compramos (al estilo de la china WeChat).
Advertisement
Estas novedades vienen acompañada de otras relacionadas con el servicio de pagos de WhatsApp, por el momento solo disponible en India, Brasil y Singapur, aunque Meta quiere llevarlo a más países en el futuro, según fuentes de la empresa.
Desde septiembre de este año, la aplicación de Meta tiene en marcha en 150 países, entre ellos España, los canales de difusión de WhatsApp. Es el equivalente a los canales de Telegram, grandes listas de distribución a los que los usuarios se pueden adscribir pese a que emisor y receptor no se conozcan. Lo mismo que se puede hacer, por ejemplo, en X, donde es frecuente seguir a personajes o instituciones con los que no se interactúa.
Rumores de publicidad en la aplicación
El magnate no dijo nada sobre el rumor de que WhatsApp estaría planeando introducir publicidad en su servicio de mensajería instantánea. Así lo asegura el Financial Times en una pieza publicada la semana pasada, en la que cita fuentes internas y alude a la necesidad de la compañía de aumentar los ingresos.
“No podemos hacernos responsables de cada conversación que mantenga cada uno de nuestros trabajadores, pero no estamos probando esto [la introducción de publicidad en WhatsApp], no estamos trabajando en ello y no está para nada entre nuestros planes”, dice a este periódico Joshua Breckman, portavoz de Meta.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Usamos cookies en nuestro sitio web para brindarle la experiencia más relevante recordando sus preferencias y visitas repetidas. Al hacer clic en "Aceptar", acepta el uso de TODAS las cookies.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.