Parmy Olson y Tae Kim
El martes, en una audiencia en el Congreso de Estados Unidos, no fue necesario que Frances Haugen, exgerenta de productos de Facebook Inc., tuviera que convencer a los legisladores de que la empresa tiene un gran problema. Republicanos y demócratas estuvieron, por una vez, unidos de su lado, incluso calificándola de “heroína” en varios puntos. Lo que ellos necesitaban era orientación. Afortunadamente, Haugen se la dio.
Durante toda la audiencia, Haugen utilizó la expresión “clasificación basada en el compromiso” para sintetizar las complejidades de los problemas de Facebook en un solo término neutral. Los legisladores intentaron decirlo ellos mismos. “Hemos aprendido... que Facebook lleva a cabo lo que se denomina ‘clasificación basada en el compromiso’”, dijo el senador John Thune.
El republicano estaba en lo correcto. El éxito de Facebook como empresa se reduce a algoritmos que colocan el contenido más estimulante en la parte superior del flujo de contenido de los usuarios.
Estas fórmulas son fundamentales para el éxito de Facebook en atraer a los usuarios, pero también contribuyen a la propagación de teorías de conspiración en el sitio y a atraer a chicas adolescentes a trastornos alimentarios en Instagram. En un momento poderoso, Haugen señaló que, dentro de unos años, habría mujeres con huesos frágiles e infertilidad debido a las elecciones de Facebook.
Como testigo, irradiaba credibilidad: evitaba caer en ataques personales contra el director ejecutivo de Facebook, Mark Zuckerberg, o temas polémicos en torno a la libertad de expresión; admitía cuando no tenía una respuesta; y usaba un lenguaje claro.
Lo más devastador para Facebook fue que el sereno testimonio comenzó a sonar como una intervención. Facebook había estado ocultando sus problemas, dijo Haugen, “y, como suele hacer la gente cuando puede ocultar sus problemas, escondió la cabeza”. El Congreso necesitaba intervenir y decir: “Podemos averiguar cómo arreglar esto juntos”.
Escándalos anteriores de Facebook han llevado a los legisladores en diferentes direcciones –por ejemplo, se enfrentaron a Zuckerberg sobre quién estaba siendo realmente censurado– y, finalmente, han resultado en inacción. Pero su apoyo y comprensión unidos ahora marcan un punto de inflexión.
Por lo tanto, aquí hay cuatro cosas que el Congreso podría hacer basándose en la orientación de Haugen:
Ordenar a Facebook que detenga, o reduzca drásticamente, los algoritmos de clasificación basada en el compromiso
Eliminar los elementos adictivos que hacen que las personas vuelvan a Facebook e Instagram. La alternativa de Haugen es una “clasificación cronológica con un poco de degradación del spam”. Eso significa volver a cómo era Facebook en los primeros días, donde el flujo de contenido estaba simplemente ordenado de forma cronológica. Los algoritmos aún podrían usarse para eliminar el spam, aunque lo que eso implica será objeto de debate, pero el tiempo y personas –en lugar de máquinas– serían los curadores finales de lo que la gente ve. Esto afectará fuertemente las ganancias de Facebook, y es posible que Zuckerberg se haya resistido a dicha medida debido a su obligación fiduciaria para con los accionistas. Es por eso que el Congreso debe intervenir.
Pedir a Facebook que gaste más en moderación del contenido
Haugen dice que Facebook no debería dividirse. Eso privaría de recursos y de la capacidad de trabajar juntos a los equipos de seguridad de todo el imperio. Reduciría el problema a dificultades más pequeñas. En su lugar, ella sugiere “redes sociales a escala humana”. Dado que la inteligencia artificial de Facebook a menudo no logra encontrar mucho contenido perjudicial, actualmente hay personas que realizan gran parte del trabajo para detectarlo y detenerlo. Pero Facebook mantiene lejos ese trabajo, ya que lo subcontrata a proveedores externos. Una solución que postuló un estudio reciente de la Escuela de Negocios Stern de la Universidad de Nueva York es duplicar el número de moderadores del contenido de Facebook a 30,000 y hacer que muchos de ellos pasen a ser personal a tiempo completo.
Establecer una agencia para auditar los algoritmos y las funciones de Facebook
Haugen instó a la creación de una agencia reguladora federal que pueda analizar los “experimentos” internos con software de Facebook y compartir esa información con su Junta de Supervisión. La junta ya tiene un sistema para asesorar a Facebook, pero se ha quejado de que Facebook no proporciona los datos necesarios para tomar decisiones. Una investigación interna en bruto, como la que se expone en el documento de Haugen, podría dar mayor peso a sus orientaciones (u órdenes de una nueva agencia) para hacer que los sitios de Facebook sean más saludables. Por ejemplo, podría ordenar a Facebook que eleve las fuentes de noticias autorizadas, como lo hizo después de las elecciones de noviembre; agregar una función que requiera que los usuarios hagan clic en un enlace antes de compartir algo; o incitar a hacer una pausa para los usuarios más adictos.
Exigir que se divulgue periódicamente información para investigadores
Se debería exigir a Facebook divulgar datos sobre lo que está sucediendo en su sitio (con las protecciones de privacidad adecuadas), como qué publicaciones se comparten más o qué anuncios políticos están recibiendo más clics. Solo entonces los académicos externos a la empresa podrán analizar sus sistemas e informar sobre sus hallazgos.
Ninguna de estas ideas es particularmente nueva. Y eso dolerá a los defensores de los derechos civiles y la privacidad cuyas sugerencias hasta ahora han sido recibidas con silencio e inacción por parte de los políticos. Pero su trabajo ha sentado una base fundamental para que el testimonio de Haugen finalmente cobre impulso. Los legisladores querrán escuchar lo que esos grupos piensan de las ideas de la denunciante y es de esperar que cuando se acerquen a ellos para recabar comentarios, escuchen algún consenso.