Connect with us

Tecnología

Doctor ChatGPT: las caras y las colas de la inteligencia artificial en la consultoría | tecnología

Published

on

Ante la pregunta de un ciudadano sobre el riesgo de morir tras tragarse un palillo, dos responden. El primero indica que entre dos y seis horas después de la ingestión, es probable que ya haya pasado a los intestinos y, además, que muchas personas se traguen los palillos sin hacer nada, pero advierte que si siente “dolor abdominal”, vaya. a la sala de emergencias. La otra respuesta es similar y enfatiza que, aunque la preocupación es común, es poco probable que se produzca un daño grave después de tragar un palillo porque está hecho de madera, que no es tóxica ni tóxica, y un utensilio pequeño. Sin embargo, añade, debes acudir al médico si tienes “dolor abdominal, dificultad para tragar o vómitos”: “Es comprensible que sientas náuseas, pero no te preocupes demasiado”, la consuela.

Las dos respuestas básicamente dicen lo mismo, pero cambian de forma. Uno es más aséptico y conciso; En segundo lugar, más empático y detallado. El primero es generado por un médico, de puño y letra, y el segundo, por ChatGPT, la herramienta generativa de inteligencia artificial (IA) que ha revolucionado el planeta en los últimos meses. El estudio que implicó el experimento ha sido publicado en la revista JAMA Medicina Internaquería profundizar en el papel que podría jugar la IA en la medicina asistida y comparó las respuestas dadas por médicos reales y chatbot Para temas de salud planteados por los ciudadanos en foros de internet. La conclusión, tras el análisis de las respuestas por parte de un panel externo de profesionales sanitarios que desconocían quién había respondido qué, es que, en el 79% de los casos, la interpretación de ChatGPT fue más empática y de mayor calidad. ,

La explosión de nuevas herramientas de IA en el mundo también ha iniciado un debate sobre su potencial en el sector de la salud. Por ejemplo, ChatGPT busca su lugar como apoyo a los trabajadores de la salud para completar trámites médicos o evitar tareas burocráticas y como último recurso para la planificación a pie de calle, ya de por sí incierta y muchas veces sin sentido. Doctor Google. Los expertos consultores sostienen que se trata de una tecnología con un gran potencial, pero que está en pañales: el sector regulatorio todavía necesita afinar su aplicación en la práctica médica real, para disipar las dudas éticas, soluciones que puedan surgir y sobre todo Todo, acepta que es un dispositivo defectuoso y que puede salir mal. lo que sea que salga chatbot Siempre será necesaria una revisión final por parte de un profesional sanitario.

Advertisement

paradójicamente, la voz más poderosa en el estudio de JAMA Medicina Interna Es una máquina y no un ser humano. Al menos, en la respuesta escrita. Josep Munuera, jefe del servicio de diagnóstico por la imagen del Hospital Sant Pau de Barcelona y experto en tecnologías digitales aplicadas a la salud, advierte que el concepto de empatía es más amplio de lo que sugiere este estudio. No es lo mismo la comunicación escrita que la comunicación cara a cara, ni es cuestionable una consulta en el contexto de una red social. “Cuando hablamos de empatía, hablamos de muchas cosas. En este momento es difícil cambiar el lenguaje no verbal, que es muy importante cuando un médico tiene que hablar con un paciente o su familia”, dijo. Pero reconoce el potencial de que estas herramientas generativas se basen en la jerga médica, por ejemplo: “En la comunicación escrita, el lenguaje técnico médico puede ser complejo y es posible que tengamos dificultades para traducirlo a un lenguaje comprensible. Presumiblemente, estos algoritmos encuentran una similitud entre un término técnico y otro optimizado para el receptor.

Joan Gibert, bioinformático y referente en el desarrollo de modelos de IA en el Hospital del Mar de Barcelona, ​​añade otra variable a la hora de valorar la potencial empatía de una máquina hacia el médico. “En el estudio se mezclan los dos conceptos que entran en la ecuación: el propio ChatGPT, que puede ser útil en algunos escenarios y tiene la capacidad de añadir palabras que nos hacen sentir que es más empático, y consumirse de los médicos, ese cansancio emocional a la hora de atender a los pacientes que deja al médico sin capacidad de ser más empático”, explica.

peligro de “alucinaciones”

en todo caso, y como es el caso del famoso doctor google, siempre hay que tener cuidado con las respuestas que da ChatGPT, sin importar cuán sensibles o amables puedan ser. los expertos recuerdan que chatbot No es médico y puede fallar. A diferencia de otros algoritmos, ChatGPT es generativo, es decir, crea información a partir de las bases de datos con las que se entrena, pero puede inventar algunas de las respuestas que lanza. “Siempre hay que tener en cuenta que esta no es una entidad independiente y no puede servir como herramienta de diagnóstico sin supervisión”, dice Gibert.

El experto en bioinformática Del Mar explica lo que estos expertos del chat llaman “alucinaciones”: “Según en qué condiciones te dice algo que no es cierto. El chat junta palabras de tal manera que tienen coherencia. Y porque contiene mucha información, puede ser valiosa, pero hay que investigarla porque, si no, puede alimentar noticias falsas, Munuera también destaca la importancia de “conocer las bases de datos en las que se entrenan los algoritmos porque si las bases de datos son inadecuadas, la respuesta también será inadecuada”.

“Tienes que entender que cuando le pides un diagnóstico, puede que invente una enfermedad”

Josep Munuera, Hospital Sant Pau de Barcelona

Advertisement

En el camino, los usos potenciales de ChatGPT en salud son limitados, ya que la información que brindan puede ser propensa a errores. José Ibias, nefrólogo del Hospital Parque Touli de Sabadell y secretario del Grupo de Big Data e Inteligencia Artificial de la Sociedad Española de Nefrología, explica que es “útil para las primeras capas de información porque sintetiza información y ayuda, pero cuando cuanto más entras en un área de nicho, más distorsiones complejas, la utilidad es mínima o incorrecta”. Munuera coincide y subraya que “este no es un algoritmo que ayude a resolver dudas”. “Tienes que entender que cuando le pides que te haga un diagnóstico diferencial, puede que se esté inventando una enfermedad”, advierte. Y, del mismo modo, el algoritmo puede responder a la sospecha de un ciudadano con la conclusión de que no es nada grave cuando, en realidad, lo es: se puede perder una oportunidad de atención sanitaria porque la persona está satisfecha con la respuesta. chatbot Y no consulta a un médico real.

Donde los expertos encuentran más espacio para maniobrar en estas aplicaciones es como una herramienta complementaria para los profesionales de la salud. Por ejemplo, para ayudar a resolver las dudas del paciente por escrito, aunque siempre bajo la supervisión de un médico. estudio de JAMA Medicina Interna Argumentan que esto ayudará a “mejorar el flujo de trabajo” y los resultados de los pacientes: “Si se responden más preguntas de los pacientes de manera rápida, empática y de alto nivel, podría reducir las visitas innecesarias a la clínica, ya que pueden liberar recursos”. Además, los mensajes son un recurso importante para promover la equidad del paciente, donde las personas que tienen limitaciones de movilidad o horarios de trabajo irregulares tienen más probabilidades de enviar mensajes”, coinciden los autores.

La comunidad científica también está estudiando el uso de estos dispositivos para otras tareas repetitivas, como tapar hojas e informes. “Bajo la premisa de que todo siempre, siempre, siempre tendrá que ser revisado por un médico”, explica Gibert, retrocediendo en las tareas burocráticas, repetitivas, pero importantes, libera tiempo para que los médicos se dediquen a otros asuntos, como: que el propio paciente. un artículo publicado en la lanceta Por ejemplo, potencia su capacidad para agilizar los informes de alta: la automatización de este proceso podría reducir la carga de trabajo y también mejorar la calidad de los informes, aunque son conscientes, dicen los autores, de la necesidad de bases de datos completas, con dificultades para entrenar algoritmos y el riesgo de ” implantación de cuidados”, algo que puede generar resistencia a esta técnica, entre otros problemas.

Ibeas insiste en que, para tener algún uso médico, esta clase de dispositivos debe estar “validada” y que la distribución de responsabilidades debe estar bien establecida: “El sistema nunca decide. Quien firma al final siempre llega a Hay un médico”, dice.

cuestiones éticas

Gibert también señala algunas consideraciones éticas que deben tenerse en cuenta al implementar estos dispositivos en la práctica clínica: “Es necesario tener este tipo de tecnología bajo un paraguas legal, que haya soluciones integradas dentro de la estructura del hospital”. los pacientes no están acostumbrados a volver a entrenar el modelo a partir de los datos. Y si uno quiere hacer esto último, debe hacerlo dentro de un proyecto, con datos anónimos y con todos los controles y se deben seguir las Regulaciones. La información sensible del paciente no se puede compartir. aturdidamente”.

Advertisement

Los expertos en bioinformática también señalan que estas soluciones de IA, como ChatGPT o modelos que ayudan al diagnóstico, introducen “sesgos” en el día a día del médico. Por ejemplo, afecta la decisión del médico de una forma u otra. “El hecho de que el profesional tenga el resultado del modelo de IA modificado por el propio evaluador: el método de correlación puede ser genial, pero puede introducir problemas, sobre todo entre profesionales que tienen poca experiencia. Por eso el proceso tiene que hacerse en paralelo: hasta que el profesional no da un diagnóstico, no pueden ver lo que dice la IA”.

Un grupo de investigadores de la Universidad de Stanford también refleja en un artículo JAMA Medicina Interna Cómo estas herramientas pueden ayudar a humanizar el cuidado de la salud: “La práctica de la medicina es mucho más que procesar información y asociar palabras con conceptos; Dar significado a esos conceptos mientras se conecta con los pacientes como un socio confiable en la construcción de vidas saludables. Podemos esperar que los sistemas de inteligencia artificial emergentes puedan ayudar a dominar las laboriosas tareas que abruman a la medicina moderna y empoderar a los médicos para que vuelvan a centrar su atención en el tratamiento de pacientes humanos.

A la espera de ver cómo se propaga esta tecnología temprana y cuáles son sus consecuencias para el público, Munuera insiste: “Hay que entender que [ChatGPT] Este no es un dispositivo médico y no hay ningún profesional de la salud que pueda confirmar la exactitud de la respuesta. Hay que ser juicioso y entender cuáles son los límites”. En definitiva, continúa Ibius: “El sistema es bueno, fuerte, positivo y es el futuro, pero como toda herramienta, hay que saber utilizarla para que no se convierte en un arma”.

puedes seguir salud y bienestar del país En Facebook, Gorjeo Y Instagram,

Advertisement

Continue Reading
Advertisement

Tecnología

TikTok, Discord y el chat de la Play: así llegan los adolescentes a las aplicaciones para desnudar a sus compañeras | Tecnología

Published

on

Los adolescentes consumen porno. Es un hecho probado por datos y estudios, algo que lleva pasando toda la vida y que no sorprende a nadie. Aunque también esto, como muchos otros aspectos de la sociedad, ha evolucionado con la llegada de internet y de las redes sociales. Las revistas o las cintas que hace 20 años alguien enseñaba a escondidas a los amigos se han convertido en fotos y vídeos que los jóvenes se pasan por los chats de WhatsApp, o en enlaces de alguna plataforma pornográfica con millones de visitas diarias en todo el mundo. Y la tecnología no ha cambiado solamente el medio de consumo, sino también el tipo de contenido. El caso de los falsos desnudos de Almendralejo (Badajoz) es el ejemplo de cómo la inteligencia artificial (IA) ha generalizado la creación y difusión de imágenes pornográficas no consentidas, que ya no tienen como víctimas solamente a personas famosas, sino a gente de su propio entorno, como las compañeras de instituto. Una práctica que enciende muchas alarmas por la facilidad de acceso a estas aplicaciones, capaces de desnudar con un clic a cualquier persona que haya colgado una foto en internet.

“El mundo digital no es diferente del mundo analógico. Ahora, como antes, los jóvenes siguen accediendo al porno a través de los amigos que te enseñan algo. La única cosa que ha cambiado son las rutas de acceso, que han pasado a ser digitales”, resume Melchor Gómez, profesor de Tecnología educativa en la Universidad Autónoma de Madrid (UAM). Además de las plataformas más conocidas que forman parte del día a día de todo el mundo independientemente de la edad —WhatsApp, Instagram o Facebook—, hay otras de dominio casi exclusivo de los jóvenes, que es justamente donde Gómez invita a centrar la atención. “Son canales donde en general no hay adultos y donde los jóvenes han creado su propia jerga. Es como si fuera el patio de recreo o el punto donde se dan el encuentro cuando salen de noche. Pero ahora es el chat de la Play”, explica.

De hecho, el 51% de los adolescentes accede a los contenidos pornográficos por primera vez a través de los grupos de amigos, según un informe de Save the Children. Puede ser que se lo enseñe en su dispositivo (pasa en el 30% de los casos); que le hable de ello y lo busque por su cuenta (15%), o que lo reciba a través de grupos de mensajería o redes sociales (6,4%). Tampoco falta la exposición involuntaria, que con la utilización de internet y redes sociales se produce principalmente a través de las páginas y plataformas libres de descargas de series y películas, con los famosos anuncios pop-up.

Dentro de este mundo, la plataforma más popular para la Generación Z es Discord, apunta Gómez. Fundada en 2015 por un programador de videojuegos estadounidense que buscaba una forma para lanzar su estudio de desarrollo de juegos, la red social se hizo verdaderamente famosa durante la pandemia, cuando millones de jóvenes alrededor del globo, confinados en sus casas, buscaban un lugar para chatear con amigos y unirse a comunidades en línea. En tres años, se ha convertido en la plataforma favorita entre los gamers, gracias a la posibilidad de compartir pantalla y de poder jugar en línea con usuarios que no tienen la misma consola.

Advertisement
Captura de pantalla de una chat de Telegram para utilizar una app de inteligencia artificial.

Funciona a través de servidores, similares a los canales de Telegram o los grupos de Facebook, que pueden ser públicos —algunos de los cuales tienen millones de miembros— o privados. Suelen estar dedicados a discutir juegos específicos o empezar conversaciones sobre la música, las series de televisión o el arte. “En general, no se trata de algo preocupante o fuera de control. Son chats como muchos otros, es la forma que tienen los jóvenes al día de hoy para comunicarse entre iguales”, asegura Gómez. Los servidores privados, sin embargo, pueden ser más problemáticos.

Cuentan con comunidades limitadas, a veces formadas por amigos que se conocen en persona y que usan esta plataforma para enviarse mensajes mientras están en línea. Por el hecho de ser más pequeños y que hace falta una invitación para unirse, suelen carecer de la supervisión por parte de la plataforma. Hace unos meses, Discord estuvo involucrada en un caso de filtración de cientos de documentos clasificados de Estados Unidos, que un joven de 21 años compartió en un servidor privado dedicado a videojuegos, memes y bromas racistas. Es la misma red social que un profesor universitario utilizó para hablar con una chica de 14 años de Albacete a la que secuestró durante una semana.

No se trata, sin embargo, de la única ruta de acceso que emplean los más jóvenes. Una búsqueda en TikTok de palabras claves ligadas al caso de Almendralejo reconduce a vídeos sobre aplicaciones y páginas web que sirven para modificar fotografías. Algunos alertan de los peligros de implementar ciertas prácticas, mientras que otros explican cómo usarlas, como un vídeo corto en el que un chico sonreía mientras se mostraba un rótulo con la dirección de una web en la que producir desnudos. “La he usado con mi compi de clase”, escribía un usuario en los comentarios sobre una app que se vende en la web como “la IA más poderosa de deepfake” con la cual “podrás ver desnuda a cualquier chica con un solo clic”. Ese vídeo fue retirado de la plataforma después de que EL PAÍS preguntara cuál es la política de moderación con contenidos como ese. Fuentes de la red social china aseguran que la actividad de índole sexual está prohibida. Un primer filtro lo aplican herramientas automáticas, al que se añade luego la monitorización humana y las denuncias de los propios usuarios.

Vigilar con responsabilidad

Aunque no sea tan popular entre los jóvenes como Discord o TikTok, también Telegram tiene sus canales oscuros. Algunas de estas aplicaciones de IA tienen grupos con centenares de miles de inscritos que permiten acceder a la web directamente desde la plataforma de mensajería. La supervisión es prácticamente inexistente, ya que para acceder hay que confirmar ser mayor de 18 años pinchando en un botón, sin otros tipos de control ni mucha dificultad. “Esto es lo peor. Estas cosas no son para nada complejas. Para un chaval moderno, utilizarlo es tan fácil como ir en bici. Lo que pasa es que los padres viven en mundos paralelos y no hacen el esfuerzo de interesarse en qué hacen los hijos cuando están conectados”, lamenta Talía Rodríguez Martelo, profesora de la Universidad de Vigo experta en temas de educación digital.

Rodríguez alerta de que herramientas como el control parental resultan inútiles con los adolescentes, aunque reconoce que es un mecanismo necesario para limitar el uso que hacen los más pequeños de los contenidos web. “Por cada control parental, a ciertas edades se saben veinte trucos más que tú. Allí está la brecha generacional, en que un joven de 15 años sepa mucho más que sus padres, por el simple hecho de haber nacido rodeado de la tecnología”, explica.

Advertisement

En estos caso, Rodríguez reconoce que la prohibición no lleva a ningún lado, y que la forma más eficaz de vigilar los propios hijos es compartiendo con ellos el tiempo que pasan con las pantallas. “El diálogo es fundamental, pero no puede estar dirigido solo a temas serios. Hay que acompañarle también en las cosas que le interesan solo a ellos y saber de qué están hablando cuando nombran a este u otro streamer. Saber cuáles son los contenidos que comparten”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tecnología

Un pantallazo no sirve: así se denuncia la ‘pornovenganza’ en la red | Tecnología

Published

on

Una pareja mantiene relaciones sexuales y uno de ellos lo graba. Más tarde, decide compartir ese vídeo con otras personas sin el permiso del otro. Es lo que le ocurrió a una menor de Gran Canaria con un jugador de la cantera del Real Madrid, que junto a otros tres compañeros, han sido acusados de un presunto delito de revelación de secretos, por grabar y difundir un vídeo de contenido sexual de la menor sin su autorización. En el caso de las 22 víctimas de Almendralejo, se difundieron imágenes de las menores con falsos desnudos creadas con inteligencia artificial. Uno de cada tres incidentes de ciberseguridad en España son una filtración de datos sensibles, protegidos o confidenciales, robados, según el Instituto Nacional de Ciberseguridad (INCIBE). En estos casos, tanto si es pornovenganza o un deepfake, ¿cómo se puede denunciar y evitar la difusión de este contenido?

Dejar constancia

El primer paso es dejar constancia de la publicación, según indica Pablo Duchement, perito judicial informático especialista en delitos en las redes perpetrados por y contra menores. “Tenemos que dejar constancia de la publicación porque si es a través de la web, el contenido puede desaparecer”, explica. Para ello, recomienda pedir un certificado digital de la publicación del contenido, de manera gratuita, a través de empresas como eGarante: “Con el certificado nadie puede poner en duda que la publicación que estaba ahí, y dónde estaba, y si se borra o se modifica, no pasa nada porque el propio certificado te sigue funcionando como prueba en un juicio”.

Mónica Cuellas, profesora de Derecho Penal Tecnológico en la Universitat Internacional de Catalunya (UIC) y abogada penalista, coincide con Duchement en que se debe pedir un certificado digital. Hacer una captura de pantalla de la publicación puede no ser insuficiente en un juicio. “Un pantallazo es fácilmente impugnable porque es fácilmente manipulable”, explica. Deja claro que lo más importante es “no borrar el contenido del dispositivo”. Para eso sirven estos testigos online, como los define INCIBE.

Advertisement

Además, en España INCIBE dispone de un teléfono gratuito, el 017, activo todos los días del año (de 8 de la mañana a 11 de la noche), para ayudar a resolver problemas de ciberseguridad, desde el punto de vista técnico, psicosocial y legal. También se puede contactar con ellos a través de WhatsApp (900116117), Telegram (@INCIBE017) y por email. El año pasado, la línea recibió más de 67.000 consultas.

Denunciar el contenido

El siguiente paso es denunciar el contenido ante las autoridades. Dirigirse a las Fuerzas y Cuerpos de Seguridad del Estado o a un juzgado de guardia, señala Cuellas. Si la situación la sufre un menor, tendrá que ser su familia o un tutor quien denuncie el contenido por él, explica Duchement. Las penas de cárcel a las que se enfrentan los autores son de hasta 1 año por difundir en internet contenido sexual de menores sin consentimiento, como delito de revelación de secretos, y de hasta 9 años por difundir imágenes sexuales de menores de 16 años creadas con inteligencia artificial, que podría considerarse delito de pornografía infantil, explica Cuellas. También se puede reclamar una indemnización por vía civil.

Solicitar la eliminación

En paralelo, se debe pedir al buscador que retire las imágenes personales, ya que el contenido explícito sigue haciendo daño mientras permanezca en la red. Si alguien aparece en imágenes de Google sin ropa, en un acto sexual o en una situación íntima, puede pedir al buscador que las retire. INCIBE recomienda contactar con la plataforma o página en la que detecte la publicación y pedir su eliminación. Si es necesario, se debe reportar la situación en la Hotline de INCIBE, y denunciar en el canal prioritario de la Agencia Española de Protección de Datos (AEPD). En el caso de las víctimas de Almendralejo, la AEPD ha abierto una investigación de oficio.

Las redes sociales también cuentan con sus canales de denuncia. Meta, además de poder denunciar el contenido desde su plataforma, lanzó en febrero una nueva herramienta para combatir el material sensible. Se llama Take it Down (quítalo, en inglés) y permite denunciar el contenido e impedir que la publicación se pueda compartir en otras plataformas, como Instagram, Facebook, Onlyfans o Pornhub. Instagram también tiene un apartado para proteger la información privada expuesta. TikTok recibió en septiembre una multa de 345 millones de euros de la Unión Europea por poner en riesgo los datos personales de menores en su plataforma. Pese a ello, tiene disponible un apartado de denuncia en su web.

Prevención

Para evitar estas situaciones en la red se pueden tomar ciertas medidas. Informar a personas cercanas sobre la difusión para que no les pase lo mismo, no confiar en desconocidos al enviar datos, imágenes o vídeos personales en internet y no ceder nunca a chantajes, son algunas de las recomendaciones de INCIBE para estos casos. Chequear periódicamente la información personal de cada uno publicada en internet, a través de buscadores y redes sociales, es otra buena práctica y se conoce como egosurfing.

Advertisement

En el caso de la difusión de imágenes falsas creadas con inteligencia artificial en internet, Duchement propone que los usuarios no publiquen sus imágenes personales. También recomienda que no se practique el sexting, es decir, el intercambio de contenido de carácter sexual a través de dispositivos. “Es más seguro ponerte desnudo delante de tu pareja, que enviarle una foto sin ropa”, asegura.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Advertisement
Continue Reading

Tecnología

Un grupo de médicos denuncia la muerte de una docena de monos en los ensayos de chips cerebrales de Elon Musk | Ciencia

Published

on

Un grupo de ética médica ha pedido este jueves que se investigue la muerte de una docena de monos en los ensayos de la empresa estadounidense Neuralink, que experimenta con implantes cerebrales. El magnate Elon Musk, fundador de esta compañía biotecnológica, afirmó el 10 de septiembre que algunos animales murieron por enfermedades terminales en las pruebas, pero el Comité de Médicos para una Medicina Responsable, una organización sin ánimo de lucro con sede en Washington, ha denunciado ante la Comisión de Bolsa y Valores de EE UU (SEC) que los primates fallecieron por complicaciones con los procedimientos del implante. Este martes, la empresa anunció que busca voluntarios para probar un chip cerebral en humanos, con el visto bueno de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA).

El proyecto Interfaz Cerebro-Computadora Precisa Implantada Robóticamente (PRIME, por sus siglas en inglés) de Neuralink tiene como objetivo que las personas con tetraplejia por lesiones en la médula espinal cervical, o por esclerosis lateral amiotrófica (ELA), controlen con la mente dispositivos externos. La promesa de Musk es revolucionar las prótesis con un implante que permita a los cerebros humanos comunicarse de forma inalámbrica con dispositivos artificiales, e incluso entre sí. En 2021, Neuralink publicó un vídeo de un mono jugando a un videojuego que copiaba la dinámica del pimpón. En el vídeo, con más de seis millones de reproducciones, un animal llamado Pager controlaba los mandos con la mirada. La compañía le había implantado dos chips seis meses antes. “Primero lo entrenamos para jugar con un mando, pero después se lo quitamos y le insertamos el Neuralink”, explicó Musk.

La empresa se fundó en 2017 y comenzó a hacer experimentos con animales luego de 12 meses. Hace un año, una investigación de la agencia Reuters indicó que la compañía había sacrificado alrededor de 1.500 animales, incluidos más de 280 ovejas, cerdos y monos que padecieron trastornos de alto sufrimiento antes de morir. Pero no fue hasta el pasado 10 de septiembre que Musk reconoció las muertes de los macacos, aunque negó que alguna de ellas fuera resultado de un implante Neuralink. “Somos extremadamente cuidadosos”, declaró en una presentación de la compañía. El grupo que ha denunciado ante la SEC afirma que los comentarios de Musk sobre las muertes de los animales fueron “engañosos, falsos” y que los inversores “merecen escuchar la verdad sobre la seguridad y comerciabilidad del producto de Neuralink”. La empresa ha recaudado más de 280 millones de dólares de inversores externos.

Advertisement

Desde septiembre de 2017 hasta finales de 2020, los experimentos de la compañía contaron con la ayuda del personal del Centro Nacional de Investigación de Primates de California. La revista estadounidense Wired ha publicado una investigación en la que ha reunido los registros del centro científico y el testimonio de un extrabajador de Neuralink. De acuerdo con los documentos, doce de los primates que se utilizaron para los estudios padecieron diarrea con sangre, parálisis parcial y edemas cerebrales antes de morir.

La investigación de Wired narra una batería de complicaciones que se desarrollaron luego de la implantación quirúrgica en el cerebro de los monos. Uno de ellos, identificado como “Animal 20″ en los registros veterinarios, se habría rascado en la herida de la operación, desprendiendo parte del dispositivo. Los investigadores realizaron una intervención para reparar el problema, pero las infecciones se arraigaron. Fue sacrificado el 6 de enero de 2020.

“Animal 15″ y “Animal 22″ también habrían muerto por los procedimientos del implante. La hembra “Animal 15″ presionaba la cabeza contra el suelo, como probable signo de dolor por una infección. Los veterinarios la observaban incómoda y tirando de su implante hasta sangrar. Pasó sus últimos días tumbada y tomada de la mano con su compañera de jaula. Otro mono más, el Animal 22, fue sacrificado en marzo de 2020 después de que su implante craneal se aflojara. La necropsia establece que “el fallo del implante puede considerarse puramente mecánico y no exacerbado por una infección”. Las fuentes de Wired, que pidieron mantenerse anónimas, sostienen que no pudieron morir por causas naturales y que los tuvieron bajo cuidado durante aproximadamente un año antes de realizarles cualquier cirugía: “Es difícil imaginar que estos monos, que no eran adultos, fueran terminales por alguna razón”.

Advertisement

Ahora Neuralink está un paso más cerca de colocar los implantes en personas y Elon Musk lo ha celebrado en la red social X (antes Twitter): “A largo plazo, Neuralink espera desempeñar un papel en la reducción del riesgo de la inteligencia artificial para la civilización, mejorando el ancho de banda desde el humano a la inteligencia artificial (y de humano a humano) en varios órdenes de magnitud. Imaginen si Stephen Hawking hubiera tenido esto”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

Advertisement
Continue Reading

Tendencias

Copyright © 2017 Zox News Theme. Theme by MVP Themes, powered by WordPress.