Facebook. (Foto: EFE)
Facebook. (Foto: EFE)

Mientras los partidarios de irrumpían en el Capitolio de el 6 de enero, enfrentándose a la policía y obligando a los legisladores a esconderse, una insurrección de otro tipo tenía lugar dentro de la mayor empresa de redes sociales del mundo.

A miles de kilómetros de distancia, en California, los ingenieros de Facebook ajustaban presurosos los controles internos para frenar la propagación de desinformación y los contenidos incitadores.

Las medidas de emergencia —algunas de las cuales se revirtieron después de las elecciones del 2020— incluyeron vetar a Trump, congelar los comentarios en los grupos con antecedentes de discurso de odio, filtrar el lema “Stop the Steal” (Paren el robo) y etiquetar a Estados Unidos como “Lugar de alto riesgo temporal” por violencia política.

Al mismo tiempo, la frustración dentro de estalló por lo que algunos vieron como la respuesta vacilante de la empresa al aumento del extremismo en Estados Unidos.

“¿No hemos tenido tiempo suficiente para averiguar cómo gestionar el discurso sin permitir la violencia?”, escribió un empleado en un tablero de mensajes interno en el momento álgido de los disturbios del 6 de enero. “Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control”.

Es una pregunta que todavía pende sobre la compañía hoy, mientras el Congreso y los reguladores investigan el rol de Facebook en los disturbios del 6 de enero.

Los nuevos documentos internos proporcionados por la exempleada de Facebook Frances Haugen permiten dar un vistazo a cómo la empresa parece simplemente haberse topado con los disturbios del 6 de enero.

Rápidamente quedó claro que, incluso después de años bajo el microscopio por la insuficiente vigilancia de su plataforma, la red social había pasado por alto cómo los participantes en los disturbios pasaron semanas prometiendo —dentro de Facebook— impedir que el Congreso certificara la victoria electoral de Joe Biden.

Los documentos también parecen reforzar la afirmación de Haugen de que Facebook antepuso su crecimiento y sus beneficios a la seguridad pública, permitiendo echar el vistazo más claro hasta ahora a cómo los impulsos contradictorios de Facebook —salvaguardar su negocio y proteger la democracia— chocaron en los días y semanas previos al intento de golpe de Estado del 6 de enero.

Este artículo se basa en parte en las declaraciones que Haugen hizo a la Comisión de Valores y que el asesor jurídico de Haugen proporcionó al Congreso con censuras. Las versiones censuradas recibidas por el Congreso fueron obtenidas por un consorcio de organizaciones noticiosas, incluida The Associated Press.

Lo que Facebook denominó medidas tipo “Rompa el cristal en caso de emergencia” puestas en marcha el 6 de enero, eran esencialmente un conjunto de opciones diseñadas para frenar la difusión de contenidos peligrosos o violentos que la red social había utilizado por primera vez en la temporada electoral del 2020. Hasta 22 de esas medidas fueron revocadas en algún momento después de las elecciones, según una hoja de cálculo interna que analiza la respuesta de la compañía.

“En cuanto las elecciones concluyeron, las volvieron a desactivar o cambiaron la configuración a lo que era antes, para priorizar el crecimiento sobre la seguridad”, dijo Haugen en una entrevista con “60 Minutes”.

Un informe interno de Facebook posterior al 6 de enero —reportado previamente por BuzzFeed— reprochaba a la compañía tener un enfoque “poco sistemático” ante el rápido crecimiento de las páginas “Stop the Steal”, las fuentes de desinformación relacionadas y los comentarios violentos e incitadores.

Facebook dice que la situación es más matizada y que calibra cuidadosamente sus controles para reaccionar rápidamente a los picos de contenido de odio y violento, como hizo el 6 de enero. La compañía afirma que no es responsable por las acciones de los alborotadores y que tener controles más estrictos antes de ese día no habría ayudado.

Las decisiones de Facebook de introducir o eliminar gradualmente determinadas medidas de seguridad tomaron en cuenta señales de la plataforma de Facebook, así como la información de las fuerzas del orden, dijo la portavoz Dani Lever. “Cuando esas señales cambiaron, también lo hicieron las medidas”.

Lever señaló que algunas de las medidas se mantuvieron hasta bien entrado el mes de febrero y otras siguen activas en la actualidad.

Algunos empleados estaban descontentos con la gestión de contenidos problemáticos por parte de Facebook incluso antes de los disturbios del 6 de enero. Un empleado que abandonó la empresa encel2020 dejó una larga nota en la que denunciaba que nuevas y prometedoras herramientas, respaldadas por sólidas investigaciones, estaban siendo limitadas por Facebook por “miedo a las respuestas del público y de las partes interesadas en la política” (traducción: preocupación por las reacciones negativas de los aliados de Trump y de los inversores).

“Del mismo modo (aunque todavía más preocupante), he visto que se han retirado salvaguardas ya desarrolladas y en funcionamiento por las mismas razones”, escribió el empleado, cuyo nombre fue tachado.

Investigaciones realizadas por Facebook bastante antes de la campaña del 2020 dejaron pocas dudas de que su algoritmo podía representar un serio peligro de propagar desinformación y posiblemente radicalizar a usuarios.

Un estudio del 2019, titulado: “El recorrido de Carol a QAnon — Un estudio de un usuario de prueba sobre riesgos de desinformación y polarización hallados a través de sistemas de recomendación”, describía los resultados de un experimento efectuado con una cuenta de prueba establecida para reflejar los puntos de vista de una mujer de Carolina del Norte de 41 años, un prototipo de “conservador fuerte”, pero no extremista.

Esta cuenta de prueba, bajo el nombre falso de Carol Smith, indicaba tener una preferencia por fuentes noticiosas de la corriente principal, como Fox News, seguía a grupos humorísticos que se burlaban de los liberales, se decía cristiana y era simpatizante de Melania Trump.

En un solo día, las recomendaciones de páginas para esta cuenta generadas por Facebook habían evolucionado a un “estado bastante preocupante, polarizante”, halló el estudio. Para el segundo día, el algoritmo estaba recomendando más contenido extremista, incluyendo un grupo vinculado a QAnon, al que la usuaria falsa no se unió porque no estaba intrínsecamente atraída por las teorías de conspiración.

Una semana después, la sección de noticias de la sujeto de prueba contenía “una andanada de contenido extremista, conspirativo y explícito”, incluyendo publicaciones que repetían la mentira de que Barack Obama no nació en Estados Unidos y vinculaban a Bill y Hillary Clinton con el asesinato de un exsenador del estado de Arkansas. Gran parte de ese contenido había sido publicado por grupos de dudosa reputación operados desde el extranjero o por administradores con antecedentes de violar las normas de Facebook sobre las actividades de bots.