‘La historia no nos juzgará amablemente’

[*] [*]

Bantes de que te cuente lo que paso exactamente a las 2:28 pm del miércoles 6 de enero de 2021 en la Casa Blanca, y cómo provocó una reacción muy específica, a unas 2.400 millas de distancia, en Menlo Park, California, es necesario recordar el caos de ese día, el exuberancia de la turba mientras se entregaba a la violencia, y cómo varias cosas parecían suceder a la vez.

A las 2:10 pm, un micrófono en vivo capturó la advertencia de pánico de un asistente del Senado de que “hay manifestantes en el edificio”, y ambas cámaras del Congreso comenzaron a evacuar.

A las 2:13 pm, el vicepresidente Mike Pence se apresuró a abandonar la sala del Senado y salir de la cámara.

A las 2:15 pm, se escucharon cánticos atronadores: “¡Cuelguen a Mike Pence! ¡Cuelguen a Mike Pence! “

En la Casa Blanca, el presidente Donald Trump estaba viendo la insurrección en vivo por televisión. El espectáculo lo emocionó. Lo que nos lleva a las 2:28 pm, el momento en que Trump compartió un mensaje que acababa de tuitear con sus 35 millones de seguidores en Facebook: “Mike Pence no tuvo el coraje de hacer lo que debería haberse hecho para proteger nuestro país y nuestra Constitución. … ¡Estados Unidos exige la verdad! “

Incluso para los estadounidenses acostumbrados a los arrebatos del presidente, el ataque de Trump contra su propio vicepresidente, en un momento en que Pence estaba siendo perseguido por la mafia que Trump envió al Capitolio, fue algo completamente diferente. Los horrorizados empleados de Facebook se apresuraron a promulgar medidas de “romper el cristal”, pasos que podrían tomar para sofocar el uso posterior de su plataforma para incitar a la violencia. Esa noche, Mark Zuckerberg, fundador y director ejecutivo de Facebook, publicó un mensaje en la plataforma de chat interna de Facebook, conocida como Workplace, bajo el título “Employee FYI”.

“Este es un momento oscuro en la historia de nuestra nación”, escribió Zuckerberg, “y sé que muchos de ustedes están asustados y preocupados por lo que está sucediendo en Washington, DC. Personalmente, estoy entristecido por esta violencia de la mafia “.

Sin embargo, los empleados de Facebook no estaban tristes. Estaban enojados y muy específicamente enojados con Facebook. Su mensaje fue claro: Esto es culpa nuestra.

El director de tecnología, Mike Schroepfer, pidió a los empleados que “aguantaran” mientras la empresa averiguaba su respuesta. “Hemos estado ‘aguantando’ durante años”, respondió una persona. “Debemos exigir más acción a nuestros líderes. En este punto, la fe por sí sola no es suficiente “.

“Con el debido respeto, pero ¿no hemos tenido tiempo suficiente para descubrir cómo manejar el discurso sin permitir la violencia?” respondió otro miembro del personal. “Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control”.

“Estoy cansado de trivialidades; Quiero elementos de acción ”, escribió otro miembro del personal. “No somos una entidad neutral”.

“Uno de los días más oscuros en la historia de la democracia y el autogobierno”, escribió otro miembro del personal. “La historia no nos juzgará con amabilidad”.

Los empleados de Facebook han entendido desde hace mucho tiempo que su empresa socava las normas y restricciones democráticas en Estados Unidos y en todo el mundo. Las hipocresías de Facebook y su hambre de poder y dominación del mercado no son un secreto. Tampoco lo es la combinación de libertad de expresión y amplificación algorítmica de la empresa. Pero los eventos del 6 de enero demostraron para muchas personas, incluidos muchos en la fuerza laboral de Facebook, ser un punto de ruptura.

El Atlántico revisó miles de páginas de documentos de Facebook, incluidas conversaciones internas e investigaciones realizadas por la compañía, de 2017 a 2021. Frances Haugen, la denunciante y exingeniera de Facebook que testificó ante el Congreso a principios de este mes, presentó una serie de revelaciones sobre Facebook al Comisión de Bolsa y Valores y al Congreso antes de su testimonio. Las versiones redactadas de esos documentos fueron obtenidas por un consorcio de más de una docena de organizaciones de noticias, incluidas El Atlántico. Los nombres de los empleados de Facebook están en su mayoría tachados.

Los documentos son asombrosos por dos razones: Primero, porque su volumen es increíble. Y segundo, porque estos documentos dejan poco margen para la duda sobre el papel crucial de Facebook en el avance de la causa del autoritarismo en Estados Unidos y en todo el mundo. El autoritarismo es anterior al auge de Facebook, por supuesto. Pero Facebook hace que sea mucho más fácil para los autoritarios ganar.

Una y otra vez, los Documentos de Facebook muestran a los empleados que hacen sonar las alarmas sobre los peligros que plantea la plataforma: cómo Facebook amplifica el extremismo y la desinformación, cómo incita a la violencia, cómo fomenta la radicalización y la polarización política. Una y otra vez, los empleados tienen en cuenta las formas en que las decisiones de Facebook avivan estos daños y ruegan a los líderes que hagan más.

Y una y otra vez, dicen los empleados, los líderes de Facebook los ignoran.

Al anochecer del 6 de enero de 2021, el asedio se había revertido, aunque no sin víctimas mortales. El alcalde de Washington había emitido un toque de queda en toda la ciudad y la Guardia Nacional estaba patrullando las calles. Facebook anunció que bloquearía la cuenta de Trump, evitando efectivamente que publique en la plataforma durante 24 horas.

“¿De verdad crees que 24 horas es una prohibición significativa?” escribió un miembro del personal de Facebook en un tablero de mensajes interno. El miembro del personal pasó entonces, al igual que otros, a los años de fracasos e inacción que habían precedido a ese día. “¿Cómo se espera que ignoremos cuando el liderazgo anula las decisiones políticas basadas en la investigación para servir mejor a personas como los grupos que incitan a la violencia en la actualidad? Los trabajadores de rango y archivo han hecho su parte para identificar cambios para mejorar nuestra plataforma, pero se han retenido activamente. ¿Puede ofrecer alguna razón por la que podamos esperar que esto cambie en el futuro? “

Era una pregunta sin signo de interrogación. El empleado parecía saber que no habría una respuesta satisfactoria.

Más tarde, Facebook extendió la prohibición al menos hasta el final del mandato presidencial de Trump, y luego, cuando la Junta de Supervisión de Facebook falló en contra de imponer una prohibición indefinida, extendió la prohibición temporal hasta al menos el 7 de enero de 2023. Pero para algunos empleados de Facebook, la decisión tomar medidas enérgicas contra Trump por incitar a la violencia estaba cómicamente retrasado. Facebook finalmente había actuado, pero para muchos en la empresa, era demasiado poco, demasiado tarde. Durante meses, Trump había incitado a la insurrección, a plena vista, en Facebook.

Facebook ha desestimado las preocupaciones de sus empleados de diversas formas. Una de sus tácticas más inteligentes es argumentar que los empleados que han dado la alarma sobre el daño causado por su empleador simplemente disfrutan de la “cultura muy abierta” de Facebook, en la que se alienta a las personas a compartir sus opiniones, me dijo un portavoz. Esta postura permite a Facebook reclamar transparencia mientras ignora el fondo de las quejas y la implicación de las quejas: que muchos de los empleados de Facebook creen que su empresa opera sin una brújula moral.

“Los empleados han estado pidiendo a gritos durante meses comenzar a tratar a las figuras políticas de alto nivel de la misma manera que nos tratamos en la plataforma”, escribió un empleado en el chat del 6 de enero. “Eso es todo lo que pedimos… Hoy se intentó un golpe de Estado contra Estados Unidos. Espero que las circunstancias no sean aún más espantosas la próxima vez que hablemos “.

rebobinar dos meses al 4 de noviembre de 2020, el día después de las elecciones presidenciales. El resultado de las elecciones aún se desconocía cuando un activista político de 30 años creó un grupo de Facebook llamado “Stop the Steal”.

“Los demócratas están tramando privar de sus derechos y anular los votos republicanos”, decía el manifiesto del grupo. “Depende de nosotros, el pueblo estadounidense, luchar y detenerlo”. En cuestión de horas, “Stop the Steal” estaba creciendo a un ritmo vertiginoso. En un momento, estaba adquiriendo 100 nuevos miembros cada 10 segundos. Pronto se convirtió en uno de los grupos de más rápido crecimiento en la historia de Facebook.

A medida que “Stop the Steal” hizo metástasis, los empleados de Facebook intercambiaron mensajes en la plataforma de chat interna de la empresa, expresando ansiedad sobre su papel en la difusión de información electoral errónea. “No solo no hacemos algo sobre la desinformación combustible de las elecciones en los comentarios”, escribió uno el 5 de noviembre; “Los amplificamos y les damos una distribución más amplia. ¿Por qué?”

Para entonces, menos de 24 horas después de la creación del grupo, “Stop the Steal” había crecido a 333.000 miembros, y el administrador del grupo no podía seguir el ritmo de los comentarios. A los empleados de Facebook les preocupaba que los miembros de “Stop the Steal” estuvieran incitando a la violencia, y el grupo llamó la atención de los ejecutivos. Facebook, para su crédito, cerró rápidamente el grupo. Pero ahora sabemos que “Stop the Steal” ya había llegado a demasiada gente, demasiado rápido, para ser contenido. El movimiento saltó de una plataforma a otra. E incluso cuando el grupo fue eliminado por Facebook, la plataforma siguió siendo un centro clave para que las personas coordinaran el ataque al Capitolio de los EE. UU.

Después de que el grupo de Facebook más conocido “Stop the Steal” fuera desmantelado, surgieron grupos de imitadores. Mientras tanto, el movimiento fue alentado por el presidente Trump, quien publicó en Facebook y Twitter, a veces una docena de veces al día, su queja siempre era la misma: ganó y Joe Biden perdió. Su exigencia siempre fue la misma también: era hora de que sus seguidores lucharan por él y por su país.

nortenunca antes en la historia del Departamento de Justicia ha estado tan enredada una investigación con las redes sociales. Facebook está omnipresente en los documentos judiciales relacionados, entretejidos a lo largo de las historias de cómo la gente se involucró en el motín en primer lugar y reapareció en relatos de caos y derramamiento de sangre. Más de 600 personas han sido acusadas de delitos relacionados con el 6 de enero. Los documentos judiciales también detallan cómo Facebook proporcionó a los investigadores información de identificación sobre sus usuarios, así como metadatos que los investigadores utilizaron para confirmar el paradero de los presuntos perpetradores ese día. Tomados en conjunto, estos documentos judiciales del 6 de enero son en sí mismos una especie de Facebook, uno lleno de selfies publicados en aplicaciones de Facebook durante el transcurso de la insurrección.

En un brillante y frío miércoles, semanas después de la insurrección, cuando los agentes del FBI finalmente llegaron a la tienda de pintura y carrocería de Russell Dean Alford en Hokes Bluff, Alabama, ellos dijeron La reacción de Alford fue la siguiente: “Me preguntaba cuándo iban a aparecer. Supongo que has visto los videos en mi página de Facebook “. Alford se declaró inocente de cuatro cargos federales, incluido entrar a sabiendas en un edificio restringido y alteración del orden público.

Los perpetradores no solo transmitieron en vivo sus crímenes mientras los cometían, sino que los registros de la corte federal muestran que los que han sido acusados ​​pasaron muchas semanas avivando la violencia en Facebook con publicaciones como “¡SIN EXCUSAS! ¡SIN RETROCEDER! ¡SIN RENDICIÓN! ¡TOMA LAS CALLES! ¡RECUPERA NUESTRO PAÍS! 6/1/2021 = 4/7/1776 ”y“ ¡Cultiva un par de bolas y recupera tu gobierno! ”

Cuando unes las historias que abarcan el período entre la elección de Joe Biden y su toma de posesión, es fácil ver a Facebook como fundamental para el ataque del 6 de enero (un portavoz me dijo que la noción de que Facebook jugó un papel fundamental en la insurrección es “Absurdo”). Considere, por ejemplo, el caso de Daniel Paul Gray. Según la declaración jurada de un agente del FBI, Gray publicó varias veces en Facebook en diciembre sobre sus planes para el 6 de enero, comentando en una publicación, “El día 6[*]cking sh[*]Muchos de nosotros vamos a Washington para cerrar toda la ciudad. Va a ser una locura, literalmente no puedo esperar “. En un mensaje privado, se jactó de que acababa de unirse a una milicia y también envió un mensaje que decía: “¿Estarás en DC el día 6 como Trump nos pidió que estuviéramos?” Más tarde, Gray fue acusado formalmente de nueve cargos federales, incluida la obstrucción de un procedimiento oficial, participación en actos de violencia física, entrada violenta, asalto y obstrucción de la aplicación de la ley. Se ha declarado inocente de todos ellos.

Luego está el caso de Cody Page Carter Connell, quien supuestamente alentó a sus amigos de Facebook a unirse a él en DC el 6 de enero. Connell terminó acusado de ocho delitos federales y se declaró inocente de todos ellos. Después de la insurrección, según una declaración jurada del FBI, se jactó en Facebook de lo que había hecho.

“Empujamos a los policías contra la pared, dejaron caer todo su equipo y se fueron”, escribió en unamensaje.

“Chicos, algo serio, jajaja”, respondió alguien. “¿Todavía parece una guerra civil?”

Respuesta de Connell: “Se va a lograr”.

En todo Estados Unidos, la gente usaba Facebook para organizar convoyes a DC y para llenar los autobuses que alquilaban para sus viajes. Los usuarios de Facebook compartieron y volvieron a compartir mensajes como este, que apareció antes del amanecer en la víspera de Navidad en un grupo de Facebook para los buscadores de la verdad de Lebanon Maine:

Esta elección fue robada y estamos avanzando lentamente hacia la propiedad china por parte de un establecimiento que es traidor y muy dispuesto a engañar al público haciéndole creer que el robo fue de alguna manera la voluntad del pueblo. ¿Habría interés a nivel local en organizar una caravana a Washington DC para el recuento de votos del Colegio Electoral el 6 de enero de 2021? Estoy organizando el tiempo libre y seré un conductor si alguien desea hacer autostop o un guía para una caravana de vehículos. Si se hiciera un llamado a los cuerpos capaces, ¿habría respuesta? Feliz Navidad.

La publicación fue firmada por Kyle Fitzsimons, quien luego fue acusado de cargos que incluyen atacar a oficiales de policía el 6 de enero. Fitzsimons se declaró inocente de los ocho cargos federales en su contra.

Puede estar pensando: Es 2021; por supuesto, la gente usó Facebook para planificar la insurrección. Es lo que utilizan para planificar todos los aspectos de sus vidas. Pero lo que surge de una lectura atenta de los documentos de Facebook y la observación de la forma en que la empresa conecta rápidamente a grandes grupos de personas es que Facebook no es una herramienta pasiva, sino un catalizador. Si los organizadores hubieran intentado planificar la manifestación utilizando otras tecnologías de épocas anteriores, como teléfonos, habrían tenido que identificar y comunicarse individualmente con cada posible participante, y luego persuadirlos para que viajen a Washington. Facebook hizo que los esfuerzos de las personas por la coordinación fueran muy visibles a escala mundial. La plataforma no solo les ayudó a reclutar participantes, sino que también les ofreció a las personas una sensación de fortaleza en número. Facebook demostró ser la máquina de publicidad perfecta para los golpistas.

Entre los acusados ​​de responder al llamado de Trump a la revolución se encontraban 17 personas de Florida, Ohio, Carolina del Norte, Georgia, Alabama, Texas y Virginia que supuestamente coordinaron en Facebook y otras plataformas sociales para unir fuerzas con la milicia de extrema derecha conocida como The Oath. Guardianes. Una de estas personas, Kelly Meggs, de 52 años de la zona rural de Florida, supuestamente participó con su esposa en un entrenamiento con armas para prepararse para el 6 de enero.

“¡¡¡Trump dijo que va a ser una locura !!!!!!!” Meggs escribió en un mensaje de Facebook el 22 de diciembre, según una acusación. “¡¡¡¡¡Va a ser salvaje !!!!!!! Quiere que lo hagamos SALVAJE, eso es lo que está diciendo. ¡Nos llamó a todos al Capitolio y quiere que lo hagamos salvaje! ¡¡¡Señor sí señor!!! ¡Caballeros, nos dirigimos a DC, empaquen su mierda! ” Meggs y sus amigos de Facebook llegaron a Washington con equipo paramilitar y suministros listos para la batalla, incluidos equipos de radio, uniformes de combate de camuflaje, cascos, protección para los ojos y chalecos tácticos con placas. Están acusados ​​de conspiración contra Estados Unidos. Meggs se declaró inocente de todos los cargos. Su esposa, Connie Meggs, tiene una fecha de juicio fijada para enero de 2022.

Ronald Mele, un hombre de California de 51 años, también usó Facebook para compartir sus planes para la insurrección, escribiendo en una publicación de Facebook en diciembre que estaba haciendo un viaje por carretera a Washington “para apoyar a nuestro presidente el día 6 y los días siguientes por si acaso ”, según su acusación federal. Los fiscales dicen él y otros cinco hombres usaron principalmente la aplicación de chat Telegram para hacer sus planes, debatiendo qué armas de fuego, cartuchos de escopeta y otras armas llevar consigo y refiriéndose a sí mismos como soldados de la “Brigada DC”, y tres de ellos publicaron en Instagram y Facebook sobre sus planes también. El 2 de enero, cuatro miembros del grupo se reunieron en la casa de Mele en Temecula, aproximadamente a una hora al norte de San Diego. Antes de subir a una camioneta y emprender el viaje por todo el país, alguien sugirió que tomaran una foto de grupo. Los hombres posaron juntos, haciendo gestos con las manos asociados con los Tres Percentes, un movimiento de milicias de extrema derecha que está clasificado como organización terrorista en Canadá. (Mele se ha declarado inocente de los cuatro cargos en su contra).

El 6 de enero, dicen los fiscales federales, los miembros de la Brigada de DC se encontraban entre los alborotadores que traspasaron la última línea policial, dando acceso a la mafia a la Terraza Oeste del Capitolio. A las 2:30 pm, justo después de que el presidente Trump incitara a los alborotadores en Facebook, Mele y compañía estaban en West Terrace celebrando, tomando selfies y gritando a sus compañeros alborotadores que siguieran adelante y entraran al Capitolio. Uno de los hombres del grupo, Alan Hostetter, de 56 años de San Clemente, publicó una selfie en su cuenta de Instagram, con una multitud de alborotadores de fondo. Hostetter, quien se ha declarado inocente de todos los cargos, escribió una leyenda para acompañar la foto: “¡Este fue el ‘disparo escuchado’ en todo el mundo! ‘ … La versión 2021 de 1776. Esa guerra duró 8 años. Solo estamos entrando en calor “.

I

En noviembre de 2019, los empleados de Facebook notaron que tenían un problema grave. Facebook ofrece una colección de reacciones emoji de un toque. Hoy en día, incluyen “me gusta”, “amor”, “cuidado”, “jaja”, “guau”, “triste” y “enojado”. Los investigadores de la empresa habían descubierto que las publicaciones dominadas por reacciones de “enojo” tenían muchas más probabilidades de ir en contra de los estándares de la comunidad, incluidas las prohibiciones de varios tipos de información errónea, según documentos internos.

Pero Facebook tardó en actuar. En julio de 2020, los investigadores presentaron los hallazgos de una serie de experimentos. En ese momento, Facebook ya ponderaba las reacciones distintas de “me gusta” en su algoritmo, lo que significa que las publicaciones que tenían una reacción de “enojo” tenían más probabilidades de aparecer en las noticias de los usuarios que las publicaciones que simplemente tenían un “me gusta”. ” El contenido que induce a la ira no se difundió solo porque las personas fueran más propensas a compartir cosas que las enojaban; el algoritmo dio una ventaja al contenido que inducía a la ira. Los trabajadores de Integrity de Facebook, empleados encargados de abordar problemas como la desinformación y el espionaje en la plataforma, concluyeron que tenían buenas razones para creer que la orientación de publicaciones que inducían enojo ayudaría a detener la propagación de contenido dañino.

Al volver a marcar el peso de la ira a cero en el algoritmo, encontraron los investigadores, podrían evitar que las publicaciones a las que las personas reaccionaban con enojo fueran vistas por tantos usuarios. Eso, a su vez, se tradujo en una reducción significativa (hasta un 5 por ciento) en el discurso de odio, la desinformación cívica, el acoso y las publicaciones violentas, todos los cuales están correlacionados con la violencia fuera de línea, a los que estaban expuestos los usuarios. Facebook implementó el cambio a principios de septiembre de 2020, según muestran los documentos; un portavoz de Facebook confirmó que el cambio sigue vigente. Fue una verdadera victoria para los empleados del equipo de Integridad.

Pero normalmente no funciona de esa manera. En abril de 2020, de acuerdo con las presentaciones de Frances Haugen ante la SEC, los empleados de Facebook habían recomendado ajustar el algoritmo para que News Feed despriorizara la aparición de contenido para las personas en función del comportamiento de sus amigos de Facebook. La idea era que el News Feed de una persona debería estar más conformado por personas y grupos que una persona había elegido seguir. Hasta ese momento, si su amigo de Facebook vio una teoría de la conspiración y reaccionó a ella, el algoritmo de Facebook podría mostrársela a usted también. El algoritmo trataba cualquier interacción en su red como una señal de que valía la pena compartir algo. Pero ahora los trabajadores de Facebook querían construir disyuntores para ralentizar esta forma de compartir.

Los experimentos demostraron que este cambio impediría la distribución de contenido de odio, polarización e incitación a la violencia en las fuentes de noticias de las personas. Pero Zuckerberg “rechazó esta intervención que podría haber reducido el riesgo de violencia en las elecciones de 2020”, dice la presentación de Haugen a la SEC. Un mensaje interno que caracteriza el razonamiento de Zuckerberg dice que quería evitar nuevas características que se interpusieran en el camino de las “interacciones sociales significativas”. Pero según la definición de Facebook, dicen sus empleados, el compromiso se considera “significativo” incluso cuando implica intimidación, incitación al odio y la posibilidad de compartir contenido dañino.

Este episodio, al igual que la respuesta de Facebook a la incitación que proliferó entre las elecciones y el 6 de enero, refleja un problema fundamental con la plataforma. La megaescala de Facebook permite a la empresa influir en los patrones de habla y pensamiento de miles de millones de personas. Lo que el mundo está viendo ahora, a través de la ventana proporcionada por montones de documentos internos, es que Facebook cataloga y estudia el daño que inflige a las personas. Y luego sigue dañando a la gente de todos modos.

“Me preocupa que el patrón continuo de Mark de responder una pregunta diferente a la pregunta que se hizo sea un síntoma de un problema mayor”, escribió un empleado de Facebook en una publicación interna en junio de 2020, refiriéndose a Zuckerberg. “Sinceramente espero estar equivocado y todavía tengo esperanzas de progresar. Pero también comprendo completamente a mis colegas que se han rendido con esta empresa, y no puedo culparlos por irse. Facebook no es neutral, y trabajar aquí tampoco lo es “.

“Ojalá pudiéramos escuchar la verdad directamente”, agregó otro. “Cualquier cosa se siente como si nosotros (los empleados) estuvieran siendo engañados intencionalmente”.

He estado cubriendo Facebook durante una década y los desafíos que debe enfrentar son novedosos y singularmente complejos. Una de las revelaciones más importantes y alentadoras de los Documentos de Facebook es que muchos trabajadores de Facebook están tratando concienzudamente de resolver estos problemas. Una de las características desalentadoras de estos documentos es que estos mismos empleados tienen poca o ninguna fe en el liderazgo de Facebook. Es impresionante ver la gran cantidad de empleados de Facebook (personas que presumiblemente entienden a su empresa tan bien o mejor que los observadores externos) que creen que su empleador está moralmente en bancarrota.

Hablé con varios ex empleados de Facebook que describieron la cultura basada en métricas de la empresa como extrema, incluso para los estándares de Silicon Valley. (Acepté no nombrarlos, porque temían represalias y el ostracismo de Facebook por hablar sobre el funcionamiento interno de la empresa). Los trabajadores de Facebook están bajo una tremenda presión para demostrar cuantitativamente sus contribuciones individuales a los objetivos de crecimiento de la empresa, me dijeron. Los nuevos productos y funciones no se aprueban a menos que el personal que los presenta demuestre cómo impulsarán la participación. Como resultado, Facebook ha avivado una carrera armamentista de algoritmos dentro de sus filas, enfrentando a los equipos centrales de productos e ingeniería, como el equipo de News Feed, contra sus colegas en los equipos de Integridad, quienes tienen la tarea de mitigar el daño en la plataforma. Estos equipos establecen metas que a menudo están en conflicto directo entre sí.

Uno de los miembros del personal de Integrity de Facebook escribió extensamente sobre esta dinámica en una nota de despedida a sus colegas en agosto de 2020, describiendo cómo los riesgos para los usuarios de Facebook “se agravan” debido a la carga “asimétrica” ​​que se coloca en los empleados para “demostrar legitimidad y valor para el usuario” antes del lanzamiento cualquier táctica de mitigación de daños: una carga que no comparten quienes desarrollan nuevas funciones o cambios de algoritmo teniendo en cuenta el crecimiento y la participación. La nota decía:

Estábamos dispuestos a actuar solo después de que las cosas se hubieran convertido en un estado terrible … Personalmente, durante el tiempo que dudamos, he visto a gente de mi ciudad natal ir más y más por el rabbithole de QAnon y Covid anti-mask / anti-vax conspiración en FB. Ha sido doloroso de observar.

Los empleados actuales y anteriores de Facebook describen la misma cultura fundamentalmente rota, una en la que las tácticas efectivas para hacer que Facebook sea más seguro son revertidas por el liderazgo o nunca aprobadas en primer lugar. (Un portavoz de Facebook rechazó la noción de que desprioriza el bienestar de sus usuarios). Esa cultura rota ha producido una plataforma rota: un ecosistema algorítmico en el que los usuarios son empujados hacia contenido cada vez más extremo, y donde Facebook expone a sus usuarios a sabiendas. teorías de la conspiración, desinformación e incitación a la violencia.

Un ejemplo es un programa que equivale a una lista blanca para VIP en Facebook, lo que permite a algunos de los usuarios con más probabilidades de difundir información errónea para romper las reglas de Facebook sin enfrentar consecuencias. Según muestran los documentos internos del programa, Facebook deja en paz a millones de usuarios de alto perfil, incluidos políticos, incluso cuando incitan a la violencia. Algunos empleados han marcado para sus superiores lo peligroso que es esto, explicando en un documento interno que Facebook tenía evidencia sólida que muestra que cuando “un contenido es compartido por un político copartidista, tiende a ser percibido como más confiable, interesante y útil que si fuera compartida por un ciudadano común “. En otras palabras, incluir en la lista blanca a usuarios influyentes con un gran número de seguidores en Facebook no es solo una aplicación secreta y desigual de las reglas de Facebook; equivale a “proteger el contenido que es especialmente probable que engañe y, por lo tanto, perjudique a las personas en nuestras plataformas”.

Los trabajadores de Facebook intentaron y no pudieron finalizar el programa. Solo cuando su existencia fue informado en septiembre por El Wall Street Journal ¿La Junta de Supervisión de Facebook pidió a los líderes más información sobre la práctica? La semana pasada, la junta reprendido públicamente Facebook por no ser “completamente comunicativo” sobre el programa. (Aunque los miembros de la Junta de Supervisión son seleccionados por Facebook y pagados por Facebook, la empresa caracteriza su trabajo como independiente).

Los documentos de Facebook muestran que los trabajadores se angustiaban por las compensaciones entre lo que consideraban hacer lo correcto para el mundo y hacer lo correcto para su empleador. “Estoy tan desgarrado”, escribió un empleado en diciembre de 2020 en respuesta a los comentarios de un colega sobre cómo combatir el discurso de odio de Trump y las incitaciones a la violencia. “Seguir estas recomendaciones podría acelerar nuestra propia desaparición de diversas formas, lo que podría interferir [with] todo el bien que hacemos en el mundo. ¿Cómo sopesas estos impactos? ” Los mensajes muestran a los trabajadores que desean que Facebook tome decisiones honorables y se preocupan de que el liderazgo sea incapaz de hacerlo. Al mismo tiempo, muchos creen claramente que Facebook sigue siendo una fuerza neta para el bien, y también les preocupa dañar el crecimiento de la plataforma.

Estas preocupaciones se han visto exacerbadas últimamente por los temores de una disminución en las nuevas publicaciones en Facebook, me dijeron dos ex empleados que dejaron la empresa en los últimos años. Las personas publican material nuevo con menos frecuencia en Facebook y sus usuarios son, en promedio, mayores que los de otras plataformas sociales. La explosiva popularidad de plataformas como TikTok, especialmente entre los más jóvenes, ha sacudido el liderazgo de Facebook. Todo esto hace que la plataforma dependa más de las formas en que puede manipular lo que ven sus usuarios para alcanzar sus objetivos. Esto explica por qué Facebook depende tanto de la infraestructura de los grupos, además de hacer que los recursos compartidos sean muy visibles para mantener a la gente enganchada.

Pero este enfoque plantea un problema importante para la calidad general del sitio, y los ex empleados de Facebook me dijeron repetidamente que los grupos representan una de las mayores amenazas para los usuarios de Facebook. En un documento particularmente fascinante, los trabajadores de Facebook describen las desventajas de “comunidad”, una palabra de moda que Zuckerberg utiliza a menudo como una forma de justificar la existencia de la plataforma. Zuckerberg ha definido la misión de Facebook como crear “infraestructura social para dar a las personas el poder de construir una comunidad global que funcione para todos nosotros”, pero en documentos de investigación internos sus empleados señalan que las comunidades no siempre son buenas para la sociedad:

Cuando forman parte de una comunidad, los individuos suelen actuar de manera prosocial. Se conforman, forjan alianzas, cooperan, organizan, muestran lealtad, esperan obediencia, comparten información, influyen en los demás, etc. Estar en un grupo cambia su comportamiento, sus habilidades y, lo que es más importante, su capacidad para lastimarse a sí mismos oa otros… Por lo tanto, cuando las personas se unen y forman comunidades en torno a temas o identidades dañinas, el potencial de daño puede ser mayor.

Las elecciones de infraestructura que está tomando Facebook para mantener su plataforma relevante están reduciendo la calidad del sitio y exponiendo a sus usuarios a más peligros. Esos peligros también se distribuyen de manera desigual, debido a la forma en que ciertas subpoblaciones son conducidas algorítmicamente hacia grupos de ideas afines. Y las subpoblaciones de usuarios de Facebook que están más expuestas a contenido peligroso también tienen más probabilidades de estar en grupos donde no se informará.

Muchos empleados de Facebook creen que su empresa está perjudicando a las personas. Muchos lo han creído durante años. E incluso ellos no puedo detenerlo. “No podemos fingir que no vemos patrones de consumo de información y cuán profundamente problemáticos son para la longevidad del discurso democrático”, escribió un investigador de experiencia de usuario en un hilo de comentarios internos en 2019, en respuesta a un memorando ahora infame de Andrew “Boz” Bosworth, un ejecutivo de Facebook desde hace mucho tiempo. “No hay una posición neutral en esta etapa, sería poderosamente inmoral comprometerse con la amoralidad”.

In los meses desde El 6 de enero, Mark Zuckerberg destacó la voluntad de Facebook de ayudar a los investigadores federales con su trabajo. “Creo que el ex presidente debe ser responsable de sus palabras, y las personas que violaron la ley deben ser responsables de sus acciones”, dijo Zuckerberg en testimonio en el congreso la primavera pasada. “Así que eso deja la cuestión del ecosistema de información más amplio. Ahora, no puedo hablar por todos los demás: los canales de televisión, las estaciones de radio, los medios de comunicación, los sitios web y otras aplicaciones. Pero puedo decirte lo que hicimos. Antes del 6 de enero, trabajamos con las fuerzas del orden para identificar y abordar las amenazas. Durante y después del ataque, brindamos un amplio apoyo para identificar a los insurrectos y retiramos puestos de apoyo a la violencia. No capturamos todo, pero hicimos que nuestros servicios fueran inhóspitos para aquellos que podrían hacer daño “.

El posicionamiento de Zuckerberg sobre el papel de Facebook en la insurrección es extraño. Agrupa su empresa con las organizaciones de medios tradicionales, algo que normalmente se resiste a hacer, no sea que se espere que la plataforma asuma más responsabilidad por la calidad del contenido que aparece en ella, y sugiere que Facebook hizo más y mejor que el periodismo. medios en su respuesta al 6 de enero. Lo que no dice es que los medios de periodismo nunca estarían en posición de ayudar a los investigadores de esta manera, porque los insurrectos no suelen utilizar periódicos y revistas para reclutar gente para los golpes.

En retrospectiva, es fácil decir que Facebook debería haberse vuelto mucho más hostil a los insurrectos antes de que llevaran a cabo su ataque. Pero la gente publica apasionadamente sobre protestas legales todo el tiempo. ¿Cómo va a saber Facebook qué protestas se convertirán en violencia y cuáles no? La respuesta aquí es simple: porque sus propios empleados han estudiado obsesivamente esta pregunta y confían en que ya han encontrado formas de hacer que Facebook sea más seguro.

Facebook quiere que la gente crea que el público debe elegir entre Facebook tal como es, por un lado, y la libertad de expresión, por el otro. Ésta es una elección falsa. Facebook tiene un conocimiento sofisticado de las medidas que podría tomar para hacer que su plataforma sea más segura sin recurrir a tácticas de censura amplias o impulsadas por ideologías.

Facebook sabe que no hay dos personas que vean la misma versión de la plataforma y que ciertas subpoblaciones experimentan versiones mucho más peligrosas que otras. Facebook sabe que las personas que están aisladas (enviudar recientemente o divorciadas, digamos, o geográficamente distantes de sus seres queridos) corren un riesgo desproporcionado de estar expuestas a contenido dañino en la plataforma. Sabe que los reincidentes son desproporcionadamente responsables de difundir información errónea. Y sabe que el 3 por ciento de los usuarios de Facebook en los Estados Unidos son superconsumidores de teorías de conspiración, lo que representa el 37 por ciento del consumo conocido de información errónea en la plataforma.

El contenido más viral en Facebook es básicamente intocable; algunos son tan virales que incluso bajar la perilla de distribución en un 90 por ciento no haría mella en su capacidad de rebotar en Internet. (Un portavoz de Facebook me dijo que aunque la plataforma a veces reduce la frecuencia con la que las personas ven contenido que ha sido compartido por una cadena de dos o más personas, es reacia a aplicar esa solución de manera más amplia: “Si bien tenemos otros sistemas que degradan el contenido que podría violar nuestras políticas específicas, como el discurso de odio o la desnudez, esta intervención reduce todo el contenido con la misma fuerza. Debido a que es tan directa y reduce el discurso positivo y completamente benigno junto con la retórica potencialmente inflamatoria o violenta, la usamos con moderación “).

Facebook sabe que se están llevando a cabo actividades dañinas en la plataforma que no rompen ninguna regla, incluida gran parte de la coordinación previa al 6 de enero. Y sabe que sus intervenciones solo afectan a una minúscula fracción del contenido de Facebook de todos modos. Facebook sabe que a veces se utiliza para facilitar la violencia social a gran escala. Y sabe que ha actuado con demasiada lentitud para prevenir tal violencia en el pasado.

Facebook podría prohibir las opciones para compartir. Podría hacer cumplir constantemente sus políticas independientemente del poder político de un usuario. Podría optar por optimizar su plataforma para la seguridad y la calidad en lugar de para el crecimiento. Podría modificar su algoritmo para evitar la distribución generalizada de contenido dañino. Facebook podría crear un panel transparente para que todos sus usuarios puedan ver lo que se está volviendo viral en tiempo real. Podría hacer públicas sus reglas sobre la frecuencia con la que los grupos pueden publicar y la rapidez con la que pueden crecer. También podría limitar automáticamente a los grupos cuando crecen demasiado rápido y limitar la tasa de viralidad del contenido que se propaga demasiado rápido.

Facebook podría trasladar la carga de la prueba hacia las personas y las comunidades para demostrar que son buenos actores y tratar el alcance como un privilegio, no como un derecho. Facebook podría decir que su plataforma no es para todos. Podría sonar una alarma para aquellos que deambulan por los rincones más peligrosos de Facebook y aquellos que se encuentran con niveles desproporcionadamente altos de contenido dañino. Podría responsabilizar a sus empleados de evitar que los usuarios encuentren estas versiones demasiado dañinas de la plataforma, evitando así que esas versiones existan.

Podría hacer todas estas cosas. Pero no es así.

Facebook ciertamente no es la única entidad dañina en la web social. El extremismo también prospera en otras plataformas sociales, y muchas de ellas están impulsadas por algoritmos que son igualmente opacos. Últimamente, la gente ha estado debatiendo cuán nefasto es realmente Facebook. Un argumento es algo como esto: Los algoritmos de Facebook no son mágicos, la orientación de sus anuncios ni siquiera es tan buena, y la mayoría de la gente no es tan estúpida.

Todo esto puede ser cierto, pero eso no debería ser tranquilizador. Un algoritmo puede ser simplemente un gran medio tonto para un fin, una forma torpe de maniobrar una red dinámica y masiva hacia el resultado deseado. Pero el enorme tamaño de Facebook le da un poder tremendo e inestable. Facebook toma poblaciones enteras de personas, las empuja hacia el radicalismo y luego dirige a los radicalizados unos hacia otros. Para aquellos que se encontraron en las esquinas de Facebook “Stop the Steal” en noviembre y diciembre del año pasado, el entusiasmo, el sentido de solidaridad, debe haber sido abrumador y emocionante. Facebook había tomado la realidad deformada y la había distribuido a gran escala.

A veces he comparado Facebook con una Máquina del Juicio Final en el sentido de que es tecnológicamente simple e increíblemente peligroso: una caja negra de sensores diseñados para absorber señales ambientales y producir una destrucción mutuamente asegurada. Cuando la empresa más poderosa del mundo posee un instrumento para manipular a miles de millones de personas, un instrumento que solo ella puede controlar y que sus propios empleados dicen que está muy dañado y es peligroso, debemos prestar atención.

La lección para las personas es la siguiente: debes estar atento a las corrientes de información en las que nadas, deliberar sobre cómo gastas tu preciosa atención, no perdonar a aquellos que utilizan tus emociones y cognición como armas para su propio beneficio, y desconfiar profundamente de cualquier escenario en el que estás rodeado de una multitud de personas que están de acuerdo con todo lo que dices.

Y la lección para Facebook es que el público está comenzando a reconocer que merece una comprensión mucho mayor de cómo se diseña e implementa la maquinaria de la plataforma. De hecho, esa es la única forma de evitar una catástrofe mayor. Sin ver cómo funciona Facebook con una resolución más fina, en tiempo real, no seremos capaces de entender cómo hacer compatible la web social con la democracia.

Read Previous

La Navidad muere duro

Read Next

El problema con My Body de Emily Ratajkowski