Ariadna Font, creadora del campo de ética algorítmica de Twitter: "La crítica no nos asusta" | transformación digital | Tecnología - Tendencias Hoy

Ariadna Font, creadora del campo de ética algorítmica de Twitter: “La crítica no nos asusta” | transformación digital | Tecnología

Fuente Ariadna.Flaminia Pelazzi

Tipografía española Ariadna (Barcelona, ​​1974), también conocida como @quicola, atraído por sus valores de “transparencia, amabilidad, inclusión y cuidado del otro” llegó a Twitter seis meses antes de la pandemia. De la noche a la mañana, pasó de viajar sin escalas al teletrabajo. Ella vino de IBM, donde se desempeñó como Directora de Desarrollo de Producto y Directora de Diseño, Datos e Inteligencia Artificial (AI) en IBM Watson y ex Directora de Tecnologías Emergentes en IBM Research. También trabajó en algunos puesta en marchaHabiendo obtenido su doctorado en Lenguaje y Tecnología de la Información de la Carnegie Mellon University (EE. UU.).

En Twitter, Font es el director de ingeniería de la plataforma de aprendizaje automático (una tecnología de inteligencia artificial). Su objetivo es mejorar Twitter habilitando una IA “avanzada y ética”. Por ello, dirige los esfuerzos de la red social en torno a una IA responsable y fue una de las creadoras de la meta área (no confundir con el nuevo nombre de Facebook), su ética y transparencia, hace más de un año. Equipo y responsabilidad. La entrevista se realiza a través de una pantalla de ordenador entre Barcelona y Nueva York.

¿A qué te dedicas?

Soy el director de ingeniería de la plataforma de aprendizaje automático, que está presente en casi todas las áreas de lo que todos buscan en Twitter: qué aparece cuando inician sesión y qué información reciben, en qué orden, después de una búsqueda. El resultado… también interfiere con otras áreas no visibles, como la detección de Tweets que pueden violar las políticas de la plataforma. Nuestro objetivo es fomentar una conversación pública saludable y las personas que están desarrollando la tecnología detrás de ella tienen las herramientas para hacerlo. Que, por diseño y desde el principio, se puedan formular las preguntas adecuadas en el momento adecuado. Esto implica crear un espacio seguro donde todos puedan expresarse libremente en una cultura de respeto. Es complicado, y en mi trabajo se traduce en hacer algoritmos lo más abiertos posible, para que sepamos cómo afectan la experiencia del usuario.

¿Cómo?

Formando personas, compartiendo buenas prácticas y documentando todo. Estamos preparando una nueva versión de la plataforma y tenemos la oportunidad de hacernos algunas preguntas. Analizamos y evaluamos cada nueva funcionalidad y clasificamos los riesgos asociados. Lo siguiente que debe hacer es realizar una auditoría interna. Ya hemos hecho algo, pero queremos hacerlo de forma sistemática y más rigurosa. Por otro lado, es importante cómo aplicamos los resultados de la investigación que hacemos. Por ejemplo, hace un año, hubo comentarios de personas en Twitter sobre problemas con nuestro algoritmo de recorte de imágenes. después de investigación interna, observamos que el algoritmo era técnicamente preciso y no encontramos ningún sesgo. El problema fue que un sistema automatizado y no el usuario decidió cómo recortar su imagen. Nuestra conclusión fue que no deberíamos haberlo arreglado para el usuario, así que lo cambiamos.

Más tendencias:  China reconsidera la prohibición de las criptomonedas y abre consultas públicas

Ha creado el equipo Meta para garantizar la responsabilidad y la transparencia de la IA de Twitter. Cual es tu estrategia?

Queremos ser proactivos, no solo reactivos. Elimina los prejuicios y deténlos. Trabajamos principalmente en tres áreas: transparencia, que no está muy de moda en el sector empresarial; Investigación de vanguardia y análisis detallado, herramientas y estándares, comenzando con la gestión de riesgos. Queremos ser dignos de la confianza de los usuarios. Abrir una caja negra no es muy común, pero las personas deben comprender cómo funciona la IA y sentir que controlan su experiencia.

Una parte muy importante de nuestro trabajo es explicar lo que está sucediendo dentro de esos sistemas y aumentar la transparencia y la interpretabilidad. No solo compartimos lo que nos hace sentir bien. Por el contrario, podemos aprender más cuando las cosas no salen bien. Entonces, uno de nuestros pilares es ayudar a las personas a aprender cómo tomamos decisiones algorítmicas y cómo rendir cuentas públicamente. ¿Cómo? Compartiendo los resultados y cómo estamos reduciendo los casos de injusticia algorítmica. Y no solo con un artículo científico sino con una explicación que cualquiera pueda entender.

simplemente lo hicieron con una investigación en España, Francia, Reino Unido, Estados Unidos, Canadá y Japón, lo que concluye que la plataforma admite tweets políticos y mediáticos.

Este es un ejemplo de muchos. Queremos crear espacios donde los usuarios se sientan seguros para poder recibir críticas. Queremos utilizar lo que aprendemos para mejorar no solo nuestros algoritmos, sino también nuestras operaciones. Queremos ser abiertos y flexibles a la hora de cambiar la experiencia del usuario. Compartimos esta investigación para que otros puedan aprender de ella. Para que la comunidad académica y la industria puedan beneficiarse de ellos.

Habla de involucrar a la comunidad en ese camino hacia la justicia algorítmica.

Nos tomamos muy en serio los comentarios de los usuarios de Twitter. No queremos comunicarnos de una sola forma a través de nuestro blog. Necesitamos un diálogo bidireccional y escuchar a los usuarios y la comunidad científica. En este sentido, estamos analizando cuál es la mejor forma de escuchar a todos. Tenemos una serie de iniciativas en las que los usuarios pueden etiquetar, digamos, lo que consideran aceptable o no.

Por otro lado, estamos muy interesados ​​en trabajar con la comunidad científica y de hackers. Siempre estamos buscando una manera de abrir cualquiera de nuestras reseñas para que puedan hacer preguntas y aportar ideas. Desde Twitter sabemos que no tenemos la capacidad de hacer o resolver todas las preguntas. Vemos a la comunidad científica como una extensión de nuestro equipo.

Más tendencias:  Alliance Block te invita a su transmisión exclusiva con cripto ubutores

Ha formalizado algunas colaboraciones tanto con Ethical Hacker Network como con la academia.

Tenemos personas que se dedican un día a la semana a trabajar con nosotros y otras que se quedan por 3 o 4 meses. Este es el caso de Sarah T. Roberts, que investiga la agencia del usuario en decisiones algorítmicas. Es algo que queremos hacer cada vez más, colaborar de forma productiva e integrar la visión exterior de estas personas.

¿Cómo colaborar sin crear dependencias? ¿Cómo evitar la sospecha de que Twitter quiere comprar a estas personas?

Esto es muy difícil. Quizás pasar un día a la semana con nosotros pueda crear una dependencia que sea contraria a nuestros intereses. Su independencia es realmente un beneficio para nosotros: sus conocimientos y comentarios externos. Queremos que esa importante comunidad nos ayude a mejorar. La crítica no nos asusta. Sabemos que vamos a cometer errores. La perfección no existe.

¿Tiene previsto realizar una auditoría externa?

Lo hemos hablado muchas veces y sería ideal. El desafío es poder hacer esto sin compartir ni revelar datos de los usuarios. Necesitamos crear un entorno de datos con tecnologías que protejan su privacidad. Es un paso preliminar que parece fácil, pero implica una gran cantidad de infraestructura y mucho trabajo. Dejamos el código abierto siempre que podemos para que la gente pueda analizarlo, pero es un proceso que no está automatizado. Por ejemplo, utilizamos lo que se conoce como “privacidad diferencial” para analizar posibles sesgos sin utilizar datos demográficos. Para ello, entre otras cosas, hemos contratado una referencia, Lee Kissner, quien lidera el equipo de privacidad.

¿Cómo protege Twitter la privacidad del usuario?

La privacidad está en nuestro ADN. Solo protegiéndolo podremos promover un diálogo público abierto y saludable. Creemos que la privacidad es un derecho fundamental, no un privilegio. Twitter permite a los usuarios tomar decisiones informadas sobre los datos que comparten con nosotros. Debemos ser transparentes y proporcionar un control significativo sobre qué datos se recopilan, cómo se utilizan y cuándo se comparten. Seguimos invirtiendo más en equipos, tecnología y recursos para respaldar este importante trabajo.

Aparte de Kisner, ha contratado a muchas otras mujeres. Reclutó a un experto en ética algorítmica aplicada para dirigir META Rumman Choudhary, y afirma que su equipo de liderazgo ya está compuesto en un 50% por mujeres.

Siempre me he centrado en construir un equipo diverso, que es especialmente relevante en el área de la IA responsable. Queremos atraer al mejor talento de la industria y que la diversidad no sea solo de género o raza, sino también de formación, cultura, experiencias de vida y formas de ver las cosas.

Más tendencias:  Explique por qué se pagó la tarifa de transacción de $ 23 millones

¿Qué está haciendo su equipo para ayudar a sopesar los algoritmos y evitar que recompensen la información errónea, el contenido extremista o inflamatorio?

Cuando identificamos contenido que viola los Términos de Twitter, tomamos medidas para monitorear el cumplimiento y evitar que dicho contenido crezca. Por ejemplo, podemos solicitar etiquetar o eliminar Tweets que no pertenecen a nuestro. violar política de integridad civil, ns política de propaganda COVID-19 O Nuestra política de medios sintéticos o manipulados, Los Tweets etiquetados tienen una visibilidad limitada de las búsquedas, las respuestas y las líneas de tiempo, y el algoritmo de Twitter no los recomienda.

También queremos darles a las personas un control significativo sobre su experiencia. Para hacer esto, pueden elegir si quieren o no seleccionar una línea de tiempo algorítmica, lo que significa que su línea de tiempo de inicio muestra los tweets de las cuentas que la persona sigue en Twitter, así como para ese contenido. Recomendaciones que podrían interesarles, basadas en las cuentas con las que más interactúan.

La amplificación algorítmica es menos una función del algoritmo particular y más una función de cómo las personas interactúan con estos sistemas. Los algoritmos pueden reflejar y reproducir prejuicios sociales dañinos. Por lo tanto, mientras META investiga los algoritmos de Twitter, publicamos los hallazgos y trabajamos para desarrollar soluciones.

¿De qué otras formas se pueden abordar estos problemas?

Preferimos tomar medidas proactivas contra el contenido que infringe nuestros estándares, incluido el contenido abusivo. Esto significa que las personas en Twitter no sufren abusos ni daños antes de que tomemos medidas. De hecho, el 65% del contenido abusivo que activamos se identifica activamente para su posterior revisión humana en lugar de depender de los informes de los usuarios. Seguimos mejorando la precisión de nuestro aprendizaje automático para detectar mejor el contenido que infringe nuestra política y actuar sobre él. Como resultado, ha habido un aumento del 142% en las cuentas provocadas por contenido abusivo.

¿Será posible un Twitter más ‘orgánico’?

Desde 2016, las personas en Twitter pueden alternar entre “Inicio” (la línea de tiempo de inicio clasificada algorítmicamente) y “Tweets más recientes” (donde se publican los Tweets más recientes). pronto comenzaremos un experimento Para facilitar el cambio de uno a otro. Permite a cualquier usuario de Twitter ver el contenido de su elección de la forma que más le convenga. Además, estamos trabajando para descentralizar la experiencia de Twitter a través de nuevas funciones y productos que brindan una experiencia más personalizable y personalizada.

PUEDES SEGUIR EL PAÍS TECNOLOGÍA Facebook Y Gorjeo o regístrate aquí para recibir nuestro periodico semanal,

Deja un comentario