Documentos de Facebook recientemente filtrados muestran una amenaza de viralidad Tecnología - Tendencias Hoy

Documentos de Facebook recientemente filtrados muestran una amenaza de viralidad Tecnología

Después del ataque del 6 de enero al Capitolio, el Partido Patriota comenzó a reclutar seguidores en Facebook. Quería ser una alternativa al Partido Republicano. “Estábamos creciendo rápido, teníamos muchos seguidores”, dice el tesorero de la organización. No fue hasta que Facebook decidió cortarles la cabeza: “Logramos grabar palabras como Patriot Party antes de la adopción masiva”, dice un documento interno de Facebook.

este viernes un grupo de medios estadounidenses de los cuales son Wall Street Journal, ns El Correo de Washington, ns New York Times O CNN ha comenzado a publicar nuevos artículos basados ​​en material extra extraído de la empresa, que ha sido compartido con la Comisión de Bolsa y Valores de EE. UU. revista Hizo una larga serie llamada “Archivos de Facebook” en septiembre. Ahora, a pedido de Haugen, el resto del documento se ha compartido con un grupo más grande de periodistas. Aún no se han publicado miles de páginas completas de los documentos originales. Haugen apareció en el Parlamento británico el lunes.

Los nuevos documentos hasta ahora no han revelado ninguna revelación espectacular que deje a Facebook atónito. Pero se refieren a decenas de pistas nuevas que ayudan a comprender la complejidad y las decisiones controvertidas de redes como Facebook. También se sabe que Haugen capturó muchos de estos documentos desde su teléfono móvil con fotos en la pantalla de la computadora, y no capturas de pantalla, para no ser rastreados.

Cada medio ha elegido su método preferido para los documentos. Pero todos involucran la historia de Carol Smith, una madre conservadora liberal de 41 años de Carolina del Norte. Smith abrió una cuenta de Facebook en 2019, estaba interesado en “los niños, la crianza de los hijos, el cristianismo y la comunidad” y siguió las cuentas oficiales de Fox News y luego del presidente Donald Trump.

Más tendencias:  El consejo especial que Michael Saylor le dio a Elon Musk

El primer día, el algoritmo le aconsejó que siguiera grupos y memes conservadores. A los pocos días, sus recomendaciones comenzaron a volverse radicales. Para el quinto día, Munch había llevado a Smith a QAnon, el grupo de conspiración que cree que el mundo está dirigido por una red de pedófilos y que Trump es el salvador. Smith no cumplió con estas recomendaciones, pero su cronología también estuvo llena de publicaciones que involucraban teorías de conspiración que violaban las reglas de la compañía.

Sin embargo, Smith no era un usuario real. Fue un experimento interno de Facebook, que repitió, con usuarios ficticios progresivos que terminaron en los mismos pozos. El experimento no es nuevo y se ha realizado con otras redes. Sin embargo esta vez es diferente ya que es trabajo de investigadores dentro de la empresa, con todo el equipamiento y la capacidad de advertir de amenazas internamente.

Gran parte de los medios de comunicación se han centrado en cómo Facebook celebró su éxito en la lucha contra la propaganda en las elecciones de noviembre, pero luego ignoraron el lío que irrumpió en el Capitolio en enero. Sin embargo, el debate interno sobre las consecuencias de la viralidad es un tema de mayor profundidad en los documentos. Por el momento solo está cubierto en profundidad por revista.

Amigo de Mark

Kang-Jing Jin ha sido amigo de Mark Zuckerberg desde sus días en la Universidad de Harvard. Es uno de los primeros empleados de la empresa. Además, según los documentos, es una de las personas más advertidas sobre el peligro de la viralidad: “Existe una variedad creciente de investigaciones que muestran que los canales virales se utilizan más para mal que para bien”, escribe Jin en uno de los documentos. para advertir de los peligros de las elecciones de 2020 y las llama “virilidad masivamente dañina”.

Más tendencias:  Los mineros y las ballenas no están vendiendo sus criptomonedas: ¿por qué es esto una buena señal para los toros?

Decenas de documentos internos, siempre revisados ​​como revistaFacebook, ingenieros y científicos de datos han descubierto que el contenido viral respalda teorías de conspiración, engaños y discursos de odio. Además, cuando un mensaje se comparte más ampliamente, es más probable que sea tóxico. Los usuarios que publican con demasiada frecuencia son especialmente peligrosos según los mismos estudios. De alguna manera, parece, el algoritmo premia la consistencia y la persistencia.

Durante la campaña electoral de 2020, Facebook implementó reglas que limitan la propagación de contenido viral. Un ingeniero vino a proponer el desmantelamiento del botón de compartir, lo cual no tuvo éxito.

El problema subyacente en este debate es que la virginidad significa negocio. Los usuarios pasan más tiempo en la plataforma y ven más anuncios, si el contenido les atrae. Como dijo Haugen en el Congreso, el debate se reduce a si Facebook antepone las ganancias a la democracia.

NS revista Describe este debate en términos muy concretos. Las palabras del amigo de la universidad de Zuckerberg, Jin, encontraron un duro rival: el jefe de publicidad John Hegman. “Si eliminamos un pequeño porcentaje de acciones de los cronogramas de los usuarios, estos deciden tener un rendimiento breve en Facebook”, escribió en un documento publicado ahora. Lógicamente, ir menos a Facebook significa ir más a otras plataformas o simplemente no ver anuncios en Facebook, lo que limita el potencial comercial de la empresa. Además, defendió Hegemann, la mayor parte del material viral es aceptable.

Los documentos muestran que, además de hacer campaña para evitar un desastre como el de 2016, la empresa siempre apoyó a Hegman. Sin embargo, el éxito inicial se complicó con un ataque al Capitolio.

Más tendencias:  Una nueva plataforma NFT quiere ser el héroe del ecosistema

Tras ese ataque, la compañía inició una investigación sobre 700.000 partidarios de Stop the Steel, el movimiento digital que defiende sin pruebas que Joe Biden ganó gracias al fraude. Con ese grupo de “usuarios vulnerables”, Facebook tenía la opción de monitorear nuevas complicaciones y enviarles un tipo de contenido más seguro: sacarlos de la política y darles gatitos. Estas descripciones muestran el tremendo poder de dictar los gustos e intereses de una plataforma popular como Facebook.

Los investigadores de Facebook han identificado páginas de cuentas y algunos de los llamados “corredores de información” de redes que distribuyen contenido dañino. De esta manera, también puede realizar un seguimiento de quién ve qué y quién ve a las personas más peligrosas.

La alternativa a tomar medidas contra entidades específicas como el Partido Patriota es activar el límite de viralidad para todos. Esto dificultará que las organizaciones basadas en el odio o la mentira emerjan tan fácilmente a medida que sus inventos se vuelven virales. Pero a Facebook le gusta apuntar a los abusadores, a riesgo de apuntar a grupos que son inofensivos o menos peligrosos. El poder que esta estrategia le brinda a Facebook es enorme.

Facebook también ha tomado medidas contra la organización alemana Querdenken [pensamiento lateral] Que no viola constantemente las políticas de Facebook y promueve la no violencia, pero que las autoridades alemanas vigilan. En última instancia, estas decisiones conducen a preguntas imposibles, como hace un investigador en un documento: hay movimientos que siguen las reglas de la comunidad de Facebook, pero también entregan contenido que es “inherentemente dañino y según nuestros estándares”. ¿Qué hacemos cuando los movimientos normativos hablan de odio o proscribir las elecciones libres? “

PUEDES SEGUIR EL PAÍS TECNOLOGÍA: Facebook Y Gorjeo o regístrate aquí para recibir nuestro periodico semanal.

Deja un comentario