Es el santo grial de la medicina moderna: identificar las alteraciones en el genoma que provocan la aparición de enfermedades de origen genético. La tarea no es fácil, hay miles de mutaciones en cada persona respecto de la información genética que heredó de sus padres. La mayoría son benignas, pero hay un porcentaje que pueden ser patogénicas. Ahora, investigadores de Google DeepMind, la empresa de inteligencia artificial de Alphabet, han catalogado 71 millones de estas mutaciones. El programa también pudo clasificarlas, encontrando que un tercio podría modificar el funcionamiento de las proteínas, provocando serias patologías.
El ADN contiene las instrucciones para el desarrollo de todo ser vivo. Este libro contiene cada una de sus recetas para crear células, órganos y funciones en forma de secuencias de sus componentes básicos. Estos componentes básicos, los ladrillos de la vida, son las proteínas. Están formadas por series de aminoácidos, a veces centenares, que a su vez, están formados por tríos de nucleótidos, las letras del abecedario genético. Cuando uno de estos nucleótidos es reemplazado por otro en un tipo de mutación, se denomina variante contrasentido. En su mayoría, estas variantes no afectan a la función de la proteína. Pero en otros casos, la mutación es catastrófica, degenerando en patologías con la esclerosis lateral amiotrófica (ELA) de base genética o la anemia de células falciformes.
Hasta ahora, se habían identificado unos 4 millones de estas variantes contrasentido (missense variants, en inglés) en las 19.233 proteínas que forman cada ser humano. Pero solo en el 2% de casos habían sido anotadas, es decir, cuando se sabe si son benignas (la mayoría) o si pueden ser fuente de enfermedades. Ahora, la inteligencia artificial (IA) ha multiplicado por 18 el número de variantes conocidas y clasificado la mayoría de ellas por potencial impacto en el funcionamiento de las proteínas.
Advertisement
Los autores de este logro, publicado en la prestigiosa revista científica Science, son científicos de DeepMind. Es el mismo grupo que desarrolló hace unos años AlphaFold, un programa de IA capaz de predecir la estructura de la práctica totalidad de las proteínas y considerado uno de los mayores avances de la biología computacional. Lo que han hecho ahora ha sido rediseñarlo y reorientarlo para detectar mutaciones contrasentido en la expresión de las proteínas. Además, en su entrenamiento, la nueva herramienta, AlphaMissense, clasifica con elevada probabilidad el impacto que esta variante puede tener en la función de la proteína.
AlphaMissense
El investigador de Deep Mind Jung Chen, primer autor del estudio, explica lo que hace AlphaMissense: “Sabíamos que AlphaFold era un modelo muy bueno para predecir la estructura tridimensional de las proteínas partiendo de una secuencia masiva. También sabíamos que esta estructura en 3D de las proteínas es muy importante para su función, básicamente revelando cuál es”, explica Chen. Si de la estructura se puede deducir su función, cualquier alteración en esa estructura podría ser fruto de una mutación. Y otra pieza fundamental es la capacidad de AlphaMissense de aprender de las limitaciones evolutivas de las secuencias relacionadas. Es decir, la evolución ha moldeado cómo puede ser la estructura de una proteína y cómo no debería ser si no se quieren problemas. Para este mejorar su conocimiento de este aspecto, el sistema fue entrenado con las estructuras de proteínas humanas y de primates. “Mediante el entrenamiento, ve millones de secuencias de proteínas y aprende cómo es una secuencia de proteínas normal. Y cuando se nos da una con una mutación, puede decirnos si mala o no”, añade
Cheng acaba haciendo una comparación: “Esto es muy similar al lenguaje humano. Si sustituimos una palabra de una frase en inglés, una persona que esté familiarizada con el idioma puede ver inmediatamente si esta sustitución de palabras cambiará el significado de la oración o no”. Su AlphaMissense fue capaz de clasificar el 89% de los 71 millones de variantes contrasentido que identificó. De ellas, el 57% eran probablemente benignas y un tercio como probablemente patogénicas. Del 11% restante la IA no sabría su impacto. “El modelo asigna una puntuación entre cero y uno a cada una de las variantes e indica la probabilidad de que la variante sea patógena. Por patógeno, queremos decir que nuestra variante patogénica tiene más probabilidades de estar asociada con una enfermedad o causarla”, detalla el científico.
Las aclaraciones de Cheng destacan tanto la fortaleza de AlphaMissense, su altísima capacidad para clasificar las variantes, como una de sus debilidades: los porcentajes se refieren a probabilidades. Hasta la era de los potentes ordenadores y la IA, caracterizar la estructura de una proteína, o de sus mutaciones, era un trabajo titánico. Antes de la llegada de estas tecnologías, se había conseguido determinar la estructura de unas 200.000 proteínas, una labor que llevó 60 años y la participación de miles de científicos. Para hacerlo se necesitaba muchas horas de laboratorio o el uso de aceleradores de partículas. Pero eran observaciones reales, de la estructura real de una proteína real. En el caso de la biología computacional, son proteínas y variantes virtuales, que después hay que confirmar. En el caso de AlphaMissense, la precisión lograda para sus cálculos es del 90%.
“Comprender la enfermedad”
En cuanto a las posibles aplicaciones, Žiga Avsec, también de DeepMind y coautor sénior del estudio, dijo en una conferencia online que, “el primer paso para encontrar tratamientos es tratar de comprender bien la enfermedad y tanto para las enfermedades complejas como para las raras, eso significa encontrar genes asociados con ellas”. Para Avsec, herramientas como AlphaMissense, “pueden ayudarnos a intentarlo, a poder identificar mejor las variantes, ayudarnos a descubrir genes potencialmente nuevos; al comprender mejor la genética, podremos tener opiniones más sólidas sobre algunos genes de los que antes quizá no estábamos seguros si estaban relacionados con la enfermedad”. “Esa es la idea general, a través de una mejor genética, encontrar nuevos genes, obteniendo un poder estadístico adicional para detectar nuevas asociaciones, pero eso directamente no conducirá a nuevos medicamentos como tal”, añadió.
Advertisement
Hace unos días, se publicó el análisis de los 200 millones de proteínas descubiertas por AlphaFold el año pasado. En ese análisis clave participó el bioinformático español, Íñigo Barrio. “AlphaFold cambió el mundo”, dice Barrio, que no es tan entusiasta con AlphaMissense. “Es relevante, es una nueva forma de evaluar variantes y podría servir para monitorear enfermedades raras. Pero ya hay otros software de predicción”. Barrio destaca también una de las limitaciones de esta inteligencia artificial. AlphaMissense cataloga variantes contrasentido de forma individual, pero muchas de las patologías con base genética “son el producto de la combinación de varias de estas mutaciones”, recuerda.
Una opinión similar expresa el biólogo José Antonio Márquez, que dirige la Plataforma de Cristalografía del Laboratorio Europeo de Biología Molecular: “Es una de las aplicaciones del método [AlphaFold], quizás no es tan relevante a nivel científico, pero sí en el sentido de empezar a transferir un descubrimiento en posibles aplicaciones”. Entre esas aplicaciones, Márquez destaca su uso para acelerar “la investigación en enfermedades genéticas y particularmente enfermedades raras, puesto que ayuda a generar hipótesis sobre el mecanismo que provoca la enfermedad”.
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.
Imagen de la portada de una web que ofrece la posibilidad de desnudar a cualquiera en segundos.
Los deepfakes, reproducciones hiperrealistas que la inteligencia artificial ha llevado a límites inauditos de accesibilidad y difusión, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. “Todos podemos ser víctimas. Internet es la selva. No hay control y no es un juego: es un delito”, advierte la presidenta de la federación extremeña de padres y madres de alumnos Freapa, Maribel Rengel. El informe más citado, realizado por Deeptrace, rastreó hasta medio millón de archivos falsos en la red mundial con un crecimiento de casi el 100% cada seis meses. Pero es solo el trabajo de una entidad. El volumen real se desconoce. Sí se sabe que el 96% es pornografía y que estas creaciones han saltado del ámbito de la imagen a la voz, a los textos, a los documentos y al reconocimiento facial, o la combinación de todos, hasta convertirse en uno de los vectores emergentes de fraude más preocupantes a partir de una tecnología aún sin regular.
El Instituto Europeo de Normas de Telecomunicaciones (ETSI por sus siglas en inglés) advierte en uno de los informes más completos y actualizados de los peligros del “cada vez más fácil” uso de la inteligencia artificial en la creación de archivos falsos. La ETSI, formada por más de 900 entidades de todo ámbito, alerta: “Debido a los avances significativos en la aplicación de la inteligencia artificial a la generación y modificación de datos, han surgido nuevas amenazas que pueden conducir a riesgos sustanciales en diversos entornos que van desde la difamación personal y la apertura de cuentas bancarias utilizando identidades falsas (mediante ataques a los procedimientos de autenticación biométrica) hasta campañas para influir en la opinión pública”. Estos son los principales objetivos:
Pornografía. “La tecnología deepfake se usa como arma contra las mujeres al insertar sus rostros en la pornografía. Es aterrador, vergonzoso, degradante y silenciador. Los vídeos de sexo deepfake dicen a las personas que sus cuerpos no son suyos y pueden dificultar sus relaciones en línea, la obtención o mantenimiento de un trabajo o que se sientan seguros”, afirma Danielle Citron, profesora de derecho en la Universidad de Boston, y autora de Crímenes de odio en el ciberespacio (Hate Crimes in Cyberspace)
Rengel lo comparte tras el caso que ha afectado a un instituto de su comunidad. “La sensación es de vulnerabilidad y es muy difícil de controlar. Los daños son irreparables. Pueden arruinar la vida de una niña”, afirma la representante extremeña para exigir, de forma urgente, un pacto de Estado que regule el uso de esta tecnología.
Advertisement
Estos ataques consisten en la difusión de vídeos, imágenes, audio o texto falsos en las redes sociales para arruinar la reputación de la víctima o humillarla. El informe de Deeptrace calculaba el número de reproducciones de este material en más de 134 millones. Mujeres conocidas han sido víctima de estas prácticas desde hace años. La cantante Rosalía ha sido la última víctima española más conocida de una larga lista internacional que encabezó Emma Watson y Natalie Portman.
Pero como advierte Rengel, “nadie está libre”. A golpe de clic, en plataformas en abierto o en sistemas de mensajería cifrada se pueden encontrar aplicaciones y páginas que ofrecen “desnudar a cualquiera” en segundos. Advierten que es para mayores de 18 y que no se pueden usar fotos de una persona sin su consentimiento, aunque no lo comprueban, descargan la responsabilidad en el usuario y afirman que el objetivo es “el entretenimiento”.
This is the frame leaked by the streamer, where a chrome tab containing an adult site featuring a deepfake video of Pokimane and Maya Higa can be seen pic.twitter.com/IeWwA8BmUP
El creador de contenidos Brandon Ewing, conocido como Atrioc, fue sorprendido en directo a principios de año con una página de deepfakes pornográficos con recreaciones falsas de sus colegas Pokimane, Maya Higa y Blaire (pide eludir el apellido para proteger a la familia), conocida como QTCinderella. Ewing alegó que la consulta fue “accidental”, pero la reacción de las víctimas fue demoledora.
Higa afirmó sentirse “asqueada, vulnerable y ultrajada”. QTCinderella publicó un impactante vídeo de repulsa: “Aunque no es mi cuerpo, bien podría serlo. Fue la misma sensación de una violación. ¡La constante explotación y cosificación de las mujeres agota!”. Pokimane recordó la necesidad de “consentimiento para determinadas prácticas, como sexualizar a las mujeres”.
Advertisement
La Oficina Federal de Investigación de Estados Unidos (FBI) ha alertado del aumento de ciberdelincuentes que emplean las imágenes y vídeos de las redes sociales para elaborar deepfakes con los que acosar y extorsionar a las víctimas.
Bulos para influir en la opinión pública. “Los deepfakes ya están desestabilizando los procesos políticos. Sin contramedidas defensivas, la integridad de las democracias de todo el mundo está en riesgo”, afirma Giorgio Patrini, fundador de Deeptrace.
El informe de ETSI identifica estos ataques como publicaciones falsas que crean la impresión de que personas que ocupan cargos influyentes han escrito, dicho o hecho ciertas cosas. “Se aplica a todos los propósitos donde hay mucho en juego y el beneficio justifica el esfuerzo desde la perspectiva de un atacante”, alerta la entidad. Pueden utilizarse para el desprestigio de un personaje, manipular precios, atacar a competidores, influir en la opinión pública en el período previo a las elecciones o plebiscitos, fortalecer el alcance de una campaña de desinformación y como propaganda, especialmente en tiempos de guerra.
As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes.
I’ve seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a
En marzo de 2022, se publicó un video deepfake del presidente ucraniano Volodímir Zelenski donde anunciaba la capitulación ante la invasión rusa de Ucrania. La política estadounidense Nancy Pelosy ha sufrido otro en el que parecía borracha y ni Donald Trump ni Barack Obama se han librado de creaciones similares.
Ataques a la autenticidad. Se dirige explícitamente a los procedimientos de identificación y autenticación biométrica remota. Tales procedimientos son de uso generalizado en muchos países para dar a los usuarios acceso a servicios digitales, como abrir cuentas bancarias, porque reducen los costos y facilitan la contratación de productos.
En 2022, un grupo de hackers (piratas informáticos) denominado Chaos Computer Club ejecutó ataques exitosos contra procedimientos de identificación de vídeo aplicando métodos deepfake.
Seguridad en internet. Muchos ataques se fundamentan en el error humano para acceder a los sistemas corporativos, como el reciente secuestro sufrido por el Ayuntamiento de Sevilla. Pero los archivos falsos hiperrealistas multiplican la capacidad de acceso al aportar formas falsas de identificación de difícil identificación. Pueden involucrar textos con el estilo del supuesto remitente, voz o videos de las personas que supuestamente se comunican con las víctimas del ataque. El objetivo es que las víctimas pinchen en enlaces maliciosos, que los atacantes pueden usar para obtener credenciales de inicio de sesión o para distribuir malware (programas maliciosos).
Un gerente de banco en Hong Kong fue engañado en 2020 por atacantes que falsificaron la voz de un director de la entidad para lograr una transferencia de 35 millones de dólares, según informó Forbes. Una compañía de energía en el Reino Unido también sufrió un ataque similar un año antes que le costó 243.000 dólares.
Advertisement
Cine con falsos actores y guionistas. En el área artística, esta tecnología se puede utilizar para crear contenido cinematográfico. El sindicato SAG-AFTRA, que agrupa a 160.000 trabajadores de la industria del entretenimiento, convocó una huelga en Hollywood el pasado julio para reclamar, además de mejores remuneraciones, garantías de protección ante el uso de la inteligencia artificial en las producciones.
Tanto actores como escritores demandan la regulación de tecnologías que pueden escribir una historia o reemplazar actores mediante el uso del deepfake, que permite replicar el físico, voz y movimientos de una persona. La generalización de estas herramientas permitiría a las grandes productoras prescindir de seres humanos en la creación de contenidos.
El actor británico Stephen Fry, narrador de los audiolibros de Harry Potter en Reino Unido, ha denunciado el uso de su voz sin su consentimiento en un documental. “Podrían hacerme leer cualquier cosa. Desde un mensaje para asaltar el parlamento hasta secuencias de porno duro. Todo sin mi conocimiento y sin mi permiso”, ha declarado.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Siempre que entro en modo agorera (una especie Casandra tecnológica), hay un memo que viene a hacerme mansplaining para revelarme una verdad ignota para mí, mujer, que se expresa con palabras contundentes en el ágora, reprobándome, sin darse cuenta o dándose, de que me haya arrogado el derecho a plantar la chancla. Esa verdad es que el cuchillo no mata, mata el hombre. Quién podría defenderse ante estas palabras pronunciadas por varón en el uso de la reflexión pública, de su estricta propiedad. Quiénes se han creído los de letras para llevarle la contraria a los ingenieros, estandartes del progreso tsunámico, inventores de la luz eléctrica y del motor de combustión.
Lo que suele olvidar el memo, como es obvio, es que, si el instrumento en cuestión no tuviera un extremo punzante, uno o dos lados cortantes, y no se vendiera en las tiendas de cualquier barrio, pueblo o pedanía, no sería apto para matar a cualquiera en cualquier momento. Antes de que el memo, que como buen tonto no se calla ni debajo del agua, me diga que no vamos a prohibir los cuchillos ni le vamos a poner puertas al campo, me gustaría traer aquí la siguiente reflexión que, sin duda, no le hará cambiar de opinión.
El argumento de “mata el hombre, no el instrumento” es usado de manera recurrente por la Asociación Nacional del Rifle estadounidense (junto con una interpretación extrema de la Segunda Enmienda) para evitar la limitación de cualquier tipo del uso de armas de fuego. Con tal de seguir haciendo caja, son capaces de echar la culpa al problema de salud mental del país (en el que, por cierto, no están dispuestos a gastarse un duro) antes que reconocer que la única función de un arma es herir o matar. No vale para cortar un bistec ni para abrir una caja después de una mudanza. Es apta únicamente para causar 31.059 muertos en EE UU en lo que llevamos de 2023, según el Gun Violence Archive, una web que contabiliza los muertos por arma de fuego en tiempo real en ese país.
Advertisement
Como en Europa sí le ponemos puertas al campo (así somos de maniáticos), la posesión y el uso de armas de fuego están fuertemente limitadas porque somos conscientes, precisamente, de que son instrumentos para matar. Es más, en España, según el Reglamento de armas, un particular solo puede poseer o portar navajas o cuchillo de menos de once centímetros y con un solo filo; las navajas automáticas y de doble filo están prohibidas, y ningún ciudadano puede “poseer cuchillos, machetes y demás armas blancas que formen parte de armamentos debidamente aprobados por autoridades u organismos competentes”.
Gracias al culmen de la evolución cultural que es el Derecho, evitamos que muchas personas mueran simplemente limitando la disponibilidad de herramientas que tienen la capacidad de matar. A nadie se le ocurre limitar el número de personas aptas para matar como solución al problema porque nos quedaríamos solos. Muchos imaginamos la masacre que sería una reunión de comunidad de propietarios si estas prohibiciones no existieran y, con ellas, la limitación de acceso o adquisición de armas o cuchillos aptos para rebanar el cuello al vecino que pone un arcón frigorífico en el trastero.
Pues lo mismo pasa con la tecnología. La hay de un solo uso, militar, y de doble uso, civil y militar, como la criptografía; de la que solo se puede usar en entornos de salud, bajo prescripción y control de un médico, como una bomba de insulina o un marcapasos; o sobre las que pesan prohibiciones internacionales, como la de clonar un ser humano. Cuando somos capaces de analizar los riesgos, somos capaces de limitarlos y gestionarlos a través de la regulación.
Y luego está esa tecnología de datos, comunicación e internet que usa cualquiera porque han nacido, crecido y madurado, silenciosamente, a base de ciclos de dopamina, alrededor de instrumentos a los que no se les ha presumido ningún peligro. Quién sospecharía que hay un riesgo existencial en la evolución del teléfono de baquelita o del yeyé modelo “Góndola”. O quién habría visto con malos ojos la evolución en ordenador personal de las tarjetas perforadas que permitieron al hombre pisar la luna. Nadie. La tecnología es neutra, fría, desapasionada, y, por lo tanto, benéfica. Bueno, sí, los milmillonarios que interrogan a Douglas Rushkoff sobre cómo sobrevivir en sus búnkeres a los Navy Seals contratados para protegerlos.
Esos que se han enriquecido poniendo a disposición de niños de ocho años herramientas que les educa en que los bukakes son una manera normal de relacionarse con las niñas; que permiten a adolescentes de once años sacarse fotos cada treinta segundos y compartirlas con miles de millones de personas; o los que prestan un servicio gratuito de niñera para padres enganchados al WhatsApp. Ellos son los que les culpan por hacer mal uso de apps que, gracias a la democratización de la API de las IA fundacionales, convierten una foto inocente en el desnudo de una menor de Almendralejo. Los mismos, en definitiva, que han liberado para un uso de consumo una tecnología que no debería de haber salido de entornos profesionales altamente controlados y que no deberían ser operadas por cualquiera.
Advertisement
Puedo esconder una chuche en el maletín nuclear y culpar a mi perra de la extinción de la humanidad por haber pulsado el botón mientras intentaba hacerse con ella. Podría hacerlo, si fuera una milmillonaria psicópata, pero como soy una abogada de andar por casa, lo que haré es no dejarle nada letal a su alcance ni usar sus impulsos básicos, precisamente los que yo he entrenado, para culparla por ello. Porque, querido amigo memo, las armas matan y la IA no debería estar accesible para unos adolescentes criados por YouPorn.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
WhatsApp sigue su proceso de transformación en la aplicación total. La compañía pondrá en marcha “en las próximas semanas” nuevas funciones dirigidas a que el usuario pueda realizar acciones en la aplicación que vayan mucho más allá de escribir en el chat. Por ejemplo, elegir un asiento en el tren, pedir comida o reservar cita o mesa, todo a través de formularios personalizables que cada empresa puede adaptar.
“Esto le da a los negocios la habilidad de crear experiencias a medida dentro de las propias conversaciones que mantengan con sus clientes. Por ejemplo, un banco puede usar nuestras plantillas para que sus clientes pidan cita para abrir una cuenta o una aerolínea puede ofrecer a los pasajeros que hagan el check-in y elijan asiento desde WhatsApp”, dijo el fundador y CEO de Meta, Mark Zuckerberg, durante una presentación en Bombay.
El objetivo es que el usuario no salga de WhatsApp, que haga más cosas dentro de la aplicación. “La gente podrá hacer gestiones de forma mucho más rápida y cómoda, sin tener que saltar a otras apps o webs para completar sus acciones”, asegura Zuckerberg. Cuanto más tiempo se dedique a WhatsApp y cuanta más rica sea la actividad que llevan a cabo en la aplicación, mejor se le puede vender a las empresas la versión de pago.
En la imagen, reserva de un viaje y selección de asiento sin salir del chat que el usuario mantiene con la empresa.
La compañía trabaja también en un sistema de verificación de empresas que, de forma parecida a X (antigua Twitter), mostrará un sello azul en las que se registren y demuestren su autenticidad. El objetivo es dar más confianza a los usuarios de que hablan con el interlocutor correcto. Eso es importante para lograr que WhatsApp se convierta poco a poco en la aplicación en la que no solo hablamos, sino también compramos (al estilo de la china WeChat).
Advertisement
Estas novedades vienen acompañada de otras relacionadas con el servicio de pagos de WhatsApp, por el momento solo disponible en India, Brasil y Singapur, aunque Meta quiere llevarlo a más países en el futuro, según fuentes de la empresa.
Desde septiembre de este año, la aplicación de Meta tiene en marcha en 150 países, entre ellos España, los canales de difusión de WhatsApp. Es el equivalente a los canales de Telegram, grandes listas de distribución a los que los usuarios se pueden adscribir pese a que emisor y receptor no se conozcan. Lo mismo que se puede hacer, por ejemplo, en X, donde es frecuente seguir a personajes o instituciones con los que no se interactúa.
Rumores de publicidad en la aplicación
El magnate no dijo nada sobre el rumor de que WhatsApp estaría planeando introducir publicidad en su servicio de mensajería instantánea. Así lo asegura el Financial Times en una pieza publicada la semana pasada, en la que cita fuentes internas y alude a la necesidad de la compañía de aumentar los ingresos.
“No podemos hacernos responsables de cada conversación que mantenga cada uno de nuestros trabajadores, pero no estamos probando esto [la introducción de publicidad en WhatsApp], no estamos trabajando en ello y no está para nada entre nuestros planes”, dice a este periódico Joshua Breckman, portavoz de Meta.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Usamos cookies en nuestro sitio web para brindarle la experiencia más relevante recordando sus preferencias y visitas repetidas. Al hacer clic en "Aceptar", acepta el uso de TODAS las cookies.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.