Las investigaciones internas de Facebook: los documentos muestran señales de alarma sobre la desinformación
Dieciséis meses antes de las elecciones presidenciales celebradas en noviembre del año pasado, una investigadora de Facebook describió un …
Dieciséis meses antes de las elecciones presidenciales celebradas en noviembre del año pasado, una investigadora de Facebook describió un acontecimiento alarmante. Una semana después de abrir una cuenta experimental, ya estaba recibiendo contenido sobre la teoría conspirativa de QAnon, según escribió en un informe interno.
El 5 de noviembre, dos días después de las elecciones, otro empleado de Facebook escribió un mensaje para alertar a sus colegas sobre los comentarios con “desinformación electoral polémica” que se podían ver debajo de muchas publicaciones.
Cuatro días después de eso, un científico de datos de la empresa escribió una nota para sus compañeros de trabajo en la que decía que el diez por ciento de todas las vistas de material político en Estados Unidos —una cifra sorprendentemente alta— eran publicaciones que alegaban un fraude electoral.
En cada caso, los empleados de Facebook sonaron una alarma sobre desinformación y contenido inflamatorio en la plataforma e instaron a tomar medidas, pero la empresa no atendió los problemas o tuvo dificultades para hacerlo. La comunicación interna fue parte de un conjunto de documentos de Facebook que obtuvo The New York Times, que brindan nueva información sobre lo ocurrido dentro de la red social antes y después de las elecciones de noviembre, cuando a la empresa la tomaron desprevenida los usuarios que convirtieron la plataforma en un arma para difundir mentiras sobre la votación.
Facebook ha culpado en público al expresidente Donald Trump y a otras plataformas sociales de la proliferación de falsedades sobre las elecciones. A mediados de enero, Sheryl Sandberg, la directora de operaciones de Facebook, dijo que los disturbios del 6 de enero en el Capitolio fueron “organizados principalmente en plataformas que no tienen nuestra capacidad para detener el odio”. En marzo, Mark Zuckerberg, el director ejecutivo de la empresa, les dijo a los legisladores que la empresa hizo su parte “para garantizar la seguridad de nuestras elecciones”.
Sin embargo, los documentos de la empresa muestran cuánto sabía Facebook sobre los movimientos y agrupaciones extremistas dentro de su sitio que querían polarizar a los votantes estadounidenses antes de las elecciones. Los documentos también ofrecen nuevos detalles sobre cuán conscientes estaban los investigadores de la empresa, después de las elecciones, del flujo de desinformación que sugería que los votos habían sido manipulados en contra de Trump.
Los documentos no ofrecen un panorama completo de la toma de decisiones al interior de Facebook. Algunos estudios internos sugirieron que la empresa tuvo dificultades para ejercer control sobre la escala de su red y la velocidad con la que se propagó la información, mientras que otros informes insinuaron que a Facebook le preocupaba perder interacción con sus usuarios o dañar su reputación.
Sin embargo, es evidente que los propios empleados de Facebook creían que la red social pudo haber hecho más, según los documentos.
“El cumplimiento fue gradual”, decía una revisión interna de marzo sobre la respuesta de Facebook frente a los grupos de Stop the Steal [Detener el robo], los cuales sostenían que la elección estadounidense fue amañada en contra de Trump. Los autores del informe señalaron que esperaban que el análisis posterior fuera una guía para que Facebook pudiera “hacerlo mejor la próxima vez”.
Muchas de las decenas de documentos de Facebook que revisó el Times no se habían divulgado antes. Frances Haugen, exgerente de producto convertida en denunciante, fue la primera en obtener algunos de los informes internos.
Los documentos de Haugen, algunos de los cuales han sido publicados por The Wall Street Journal, han creado indignación entre los legisladores y los reguladores, sumiendo a Facebook en una de sus peores crisis de relaciones públicas en años. Las revelaciones de Haugen, quien compareció en una audiencia en el Parlamento británico el lunes, hicieron resurgir las preguntas sobre el papel que desempeñó Facebook en los acontecimientos que condujeron a los disturbios del 6 de enero en el Capitolio.
Yaël Eisenstat, una exempleada de Facebook que supervisó la seguridad en los anuncios de las elecciones en el mundo, dijo que la investigación de la compañía mostró que había intentado analizar sus responsabilidades en torno a las elecciones de 2020. Pero “si nada de estos efectos cambia”, dijo, fue un desperdicio.
“Deberían tratar de entender si la forma en que diseñaron el producto es el problema”, dijo Eisenstat sobre su antiguo empleador.
Andy Stone, un vocero de Facebook, comentó que la empresa estaba “orgullosa” del trabajo que había hecho para proteger las elecciones de 2020. Stone señaló que Facebook colaboró con las fuerzas del orden, introdujo medidas de seguridad y monitoreó de cerca el contenido de su plataforma.
“Las medidas que sí necesitábamos se mantuvieron hasta bien entrado febrero y algunas, como no recomendar nuevos grupos políticos ni cívicos, siguen vigentes hasta la fecha”, comentó. “La responsabilidad de la violencia que ocurrió el 6 de enero es de quienes atacaron nuestro Capitolio y quienes los incitaron”.
Un viaje a QAnon
Durante años, los empleados de Facebook advirtieron sobre el potencial de la red social para radicalizar a los usuarios, según los documentos.
En julio de 2019, una investigadora de la empresa que estudiaba la polarización realizó un descubrimiento impactante: una cuenta de prueba que hizo para una “mamá conservadora” de Carolina del Norte recibió recomendaciones sobre contenido de teorías conspirativas a una semana de haber entrado a la red social.
La investigación interna, titulada “El viaje de Carol a QAnon”, detalló cómo la cuenta de Facebook para una mujer imaginaria llamada Carol Smith había seguido páginas de Fox News y Sinclair Broadcasting. En cuestión de días, Facebook le había recomendado páginas y grupos relacionados con QAnon, la teoría de la conspiración que aseguraba falsamente que Trump se enfrentaba a una camarilla tenebrosa de pedófilos demócratas.
Al final de las tres semanas, la cuenta de Facebook de Carol Smith había empeorado. “Se volvió un flujo constante de contenido engañoso, polarizador y de baja calidad”, escribió la investigadora.
Stone, de Facebook, dijo sobre el trabajo: “Aunque se trataba de un estudio de un usuario hipotético, es un ejemplo perfecto de la investigación que la empresa realiza para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar QAnon de la plataforma”.
La investigadora realizó posteriormente experimentos de polarización en una cuenta de prueba de tendencia izquierdista y descubrió que los algoritmos de Facebook la alimentaban con memes de “baja calidad” y desinformación política. Dejó la compañía en agosto de 2020, el mismo mes en que Facebook tomó medidas contra las páginas y grupos de QAnon.
En su nota de salida, que fue revisada por el Times y fue reportada previamente por BuzzFeed News, dijo que Facebook estaba “exponiendo a los usuarios conociendo los riesgos de daños a la integridad” y citó la lentitud de la compañía en actuar sobre QAnon como una razón para su salida.
“Durante más de un año hemos sabido que nuestros sistemas de recomendación pueden llevar muy rápido a los usuarios por el camino de las teorías y los grupos conspirativos”, escribió la investigadora. “Mientras tanto, el grupo marginal/conjunto radical de creencias ha crecido hasta tener prominencia nacional, con candidatos de QAnon al Congreso y con etiquetas y grupos de QAnon que son tendencia entre el público en general”.
Hacia el día de las elecciones
Para las elecciones de 2020, Facebook intentó dejar poco al azar.
Durante meses, la empresa perfeccionó medidas de emergencia conocidas como planes para “romper el vidrio” —como ralentizar la formación de nuevos grupos de Facebook— en caso de que hubiera un resultado disputado. Facebook también contrató a decenas de miles de empleados para que el sitio fuera seguro durante las elecciones, consultó con expertos en derecho y políticas, y amplió sus asociaciones con organizaciones verificadoras de información.
En un comunicado público de septiembre de 2020, Zuckerberg escribió que su empresa tenía “una responsabilidad de proteger nuestra democracia”. Zuckerberg resaltó una campaña para registro de votantes que Facebook había financiado y expuso las medidas que había tomado la empresa —como eliminar la desinformación sobre los votantes y bloquear anuncios políticos— para “reducir las probabilidades de violencia y agitación”.
Al parecer, muchas medidas sirvieron. El día de las elecciones pasó sin mayores complicaciones en Facebook.
Sin embargo, después de que los conteos de votos mostraron una carrera reñida entre Trump y Joe Biden —en aquel entonces el candidato presidencial demócrata—, en las primeras horas del 4 de noviembre, Trump publicó en Facebook y Twitter: “Están tratando de ROBAR la elección”.
Los documentos internos mostraron que algunos usuarios habían encontrado formas de socavar la confianza en la votación en Facebook.
El 5 de noviembre, un empleado de Facebook publicó un mensaje en un grupo interno en línea llamado “Retroalimentación de Noticias”. En la nota, les comentó a sus colegas que la desinformación sobre la votación era notoria en la sección de comentarios de las publicaciones. Aún peor, se estaban amplificando los comentarios con la desinformación electoral más incendiaria para que aparecieran en lo más alto de las cadenas de comentarios, a fin de difundir información imprecisa, dijo el empleado.
El 9 de noviembre, un científico de datos de Facebook comunicó a varios colegas en una publicación interna que se había disparado la cantidad de contenido en la red social que ponía en duda los resultados de las elecciones. Una de cada 50 vistas en Facebook en Estados Unidos, o el diez por ciento de todas las vistas de material político, era de contenido que declaraba el voto fraudulento, escribió el investigador.
Understand the Facebook Papers
A tech giant in trouble. The leak of internal documents by a former Facebook employee has provided an intimate look at the operations of the secretive social media company and renewed calls for better regulations of the company’s wide reach into the lives of its users.
How it began. In September, The Wall Street Journal published The Facebook Files, a series of reports based on leaked Facebook documents. The series exposed evidence that Facebook knew Instagram, one of its products, was worsening body-image issues among teenagers.
The whistle-blower. During an interview with “60 Minutes” that aired Oct. 3, Frances Haugen, a Facebook product manager who left the company in May, revealed that she was responsible for the leak of those internal documents.
Ms. Haugen’s testimony in Congress. On Oct. 5, Ms. Haugen testified before a Senate subcommittee, saying that Facebook was willing to use hateful and harmful content on its site to keep users coming back. Facebook executives, including Mark Zuckerberg, called her accusations untrue.
The Facebook Papers. Ms. Haugen also filed a complaint with the Securities and Exchange Commission and provided the documents to Congress in redacted form. A congressional staff member then supplied the documents, known as the Facebook Papers, to several news organizations, including The New York Times.
New revelations. Documents from the Facebook Papers show the degree to which Facebook knew of extremist groups on its site trying to polarize American voters before the election. They also reveal that internal researchers had repeatedly determined how Facebook’s key features amplified toxic content on the platform.
“También hubo un margen de incitación a la violencia”, escribió en la publicación.
A pesar de todo, en noviembre, Facebook comenzó a relajar sus medidas de emergencia, según señalaron tres exempleados. Parecía que el periodo crítico postelectoral había pasado y a la empresa le preocupaba que algunas medidas tomadas antes de las elecciones, como reducir el alcance de las páginas radicales de derecha, pudieran generar quejas de los usuarios, agregaron.
El 6 de enero
La mañana del 6 de enero, mientras se reunían manifestantes cerca del edificio del Capitolio de Estados Unidos en Washington, algunos empleados de Facebook recurrieron a una hoja de cálculo. Ahí, comenzaron a catalogar las medidas que la empresa estaba tomando en contra de la desinformación electoral y el contenido incendiario en su plataforma.
Esa mañana, habían aumentado las quejas de los usuarios sobre publicaciones que incitaban a la violencia, según datos de la hoja de cálculo.
A lo largo de ese día, mientras una turba irrumpía en el Capitolio, los empleados actualizaron la hoja de cálculo con las medidas que se estaban tomando, según comentó un trabajador involucrado en el esfuerzo. De las decenas de medidas que recomendaron los empleados de Facebook, se implementaron algunas, como permitir que los ingenieros de la empresa borraran en masa las publicaciones que fueran denunciadas por promover la violencia.
Sin embargo, otras medidas, como evitar que los grupos cambiaran sus nombres a términos como Stop the Steal, no se implementaron por completo debido a fallas tecnológicas de último minuto, según la información de la hoja de cálculo.
Zuckerberg y Mike Schroepfer, director de tecnología de Facebook, publicaron notas internas sobre la tristeza que les provocó el disturbio en el Capitolio. No obstante, algunos empleados de Facebook respondieron con enojo, de acuerdo con las cadenas de mensajes que vio el Times.
“Me gustaría sentir otra cosa, pero simplemente no basta con decir que nos estamos adaptando, porque ya nos tendríamos que haber adaptado hace mucho”, escribió un empleado. “Hasta ayer, había decenas de grupos de Stop the Steal y dudo que midieran sus palabras para expresar sus intenciones”.
Otro empleado escribió: “A fin de cuentas, siempre he sentido que mi trabajo ha sido significativo y útil para el mundo en general. Pero, para ser sincero, este es un día muy sombrío para mí aquí”.
En un informe del 7 de enero, el alcance de lo ocurrido en Facebook quedó claro. La cantidad de denuncias de usuarios sobre contenido que posiblemente había violado las políticas de la empresa era siete veces mayor que en semanas anteriores, según el informe. Varias de las publicaciones más denunciadas “sugerían el derrocamiento del gobierno” o “expresaban su apoyo a la violencia”, descubrieron los investigadores.
Análisis posterior
En marzo, los investigadores de Facebook publicaron dos informes internos en los que evaluaron el papel de la empresa en los movimientos sociales que promovieron las mentiras del fraude electoral.
En uno, un grupo de empleados señaló que Facebook había seguido “el patrón”, es decir que había tomado medidas iniciales “limitadas o nulas” en contra de QAnon y los movimientos de deslegitimación electoral, y solo actuó y eliminó ese contenido una vez que ya había ganado impulso. The Wall Street Journal fue el primer medio en informar sobre el documento.
Los empleados escribieron que parte del problema fue que las reglas de desinformación electoral de Facebook dejaron demasiadas zonas grises. Como resultado, no se eliminaron publicaciones que “podrían interpretarse como dudas razonables sobre los procesos electorales” porque no violaban esas reglas al pie de la letra.
Esas publicaciones luego crearon un ambiente que contribuyó a la inestabilidad social, según el informe.
Otro informe, titulado “Stop the Steal and Patriot Party: The Growth and Mitigation of an Adversarial Harmful Movement”, expuso la forma en la que la gente había explotado la función de grupos de Facebook para formar rápidamente comunidades deslegitimadoras de las elecciones en el sitio antes del 6 de enero.
Según el informe, algunos organizadores enviaron cientos de invitaciones para crear los grupos, básicamente enviando correos no deseados a la gente. También pidieron a todos los que se unieron que invitaran a tantas personas como fuera posible, haciendo que los grupos aumentaran de tamaño. (Desde entonces, Facebook ha empezado a controlar más estrechamente la cantidad de invitaciones a los grupos).
Algunos organizadores de grupos de Stop the Steal en Facebook también parecían cooperar entre sí para “hacer crecer el movimiento”, según el informe.
“Una vez que ya pasó todo, es todavía más importante mirar atrás, para aprender qué podemos hacer en torno al crecimiento de los movimientos de deslegitimación electoral que se expandieron, difundieron conspiraciones y ayudaron a incitar la insurrección en el Capitolio”, decía el informe.
Mike Isaac, Davey Alba y Cecilia Kang colaboraron con este reportaje.
Ryan Mac es un reportero de tecnología centrado en la responsabilidad de las empresas del sector tecnológico mundial. Ganó un premio George Polk en 2020 por su cobertura de Facebook y vive en Los Ángeles. @RMac18
Sheera Frenkel es una premiada reportera de tecnología con sede en San Francisco. En 2021, ella y Cecilia Kang publicaron An Ugly Truth: Inside Facebook’s Battle for Domination. @sheeraf