Por Timothy O’Brien
Imaginemos que usted dirige la plataforma de redes sociales más influyente del mundo y los subgrupos en su sitio siguieran demostrando una capacidad enorme para tergiversar la información sobre el COVID-19 y otros problemas fundamentales, ¿cómo respondería usted a esto?
A) Estudiaría el comportamiento.
B) Prohibiría el comportamiento.
C) Ignoraría el comportamiento.
D) Contaría sus ganancias.
Mark Zuckerberg, fundador y administrador de Facebook Inc., generalmente ha optado por una combinación de A, C y D, y, con demasiada frecuencia, ha evitado elegir B.
La última prueba de si podría trazar un nuevo rumbo llegó por cortesía de la reportera Elizabeth Dwoskin del Washington Post, quien tuvo en sus manos documentos internos de Facebook que muestran que la compañía ha estado estudiando qué le da forma a las dudas de sus usuarios sobre las vacunas contra el COVID-19 en Estados Unidos.
Facebook dividió a sus usuarios estadounidenses en 638 segmentos de varios tamaños y descubrió que solo 10 de esos segmentos producían la mitad de todo el contenido de “dudas sobre las vacunas” en su plataforma. Dentro de los segmentos poblados por los usuarios más renuentes a la inmunización, la mitad del contenido antivacunas fue generado por solo varias docenas de miembros de Facebook.
En otras palabras, un puñado de usuarios de Facebook logró sembrar una ansiedad generalizada sobre las vacunas debido a la facilidad con la que algunas ideas, sin importar cuán locas o peligrosas sean, se vuelven virales.
Además, como señaló Dwoskin, la investigación sobre Facebook encontró “evidencia temprana de una superposición significativa entre las comunidades que son escépticas sobre las vacunas y las afiliadas a QAnon, un conjunto extenso de afirmaciones sin fundamento que ha radicalizado a sus seguidores y se ha asociado con crímenes violentos”.
La Oficina Federal de Investigaciones (FBI, por sus siglas en inglés), considera a QAnon como una amenaza de terrorismo nacional. Sus seguidores tienen un historial de fomentar el negacionismo del COVID-19 y los mitos sobre la manipulación de las elecciones presidenciales del 2020.
Como Dwoskin informó anteriormente, los fanáticos de QAnon también han difundido diligentemente una serie de ideas ridículas sobre las vacunas, incluido el hecho de que son armas biológicas destinadas a alterar la estructura genética de las personas para que el planeta pueda ser despoblado y controlado por Gobiernos en alianza con compañías farmacéuticas.
Pero la investigación de Facebook también reveló que el escepticismo sobre las vacunas no se limitaba a los partidarios de QAnon. La duda se había extendido a muchas de sus otras comunidades no afiliadas al movimiento. Esto plantea nuevos desafíos para Zuckerberg, quien durante mucho tiempo ha afirmado que Facebook es una plataforma tecnológica, no un editor, y debería funcionar en gran medida como un bufé libre para una infinidad de voces y perspectivas.
Zuckerberg ha establecido algunos límites en torno a lo que Facebook considera aceptable. Hace unos años, la compañía emitió a sus moderadores una lista de “estándares comunitarios”, que incluía definiciones de incitación al odio, retórica violenta, explotación sexual y otros contenidos que el sitio no permitiría.
A principios del año pasado, prohibió la desinformación sobre el coronavirus. En diciembre, prohibió las declaraciones falsas o engañosas sobre las vacunas. El 7 de enero, un día después de que los seguidores de Donald Trump atacaran el Capitolio, Zuckerberg bloqueó la cuenta del expresidente para evitar que usara el sitio “para incitar a más violencia”.
La prohibición de Trump siguió a años de críticas de que Zuckerberg permitió que el expresidente se expresara de forma desenfrenada en la plataforma, y después de meses de presión por parte de grupos de derechos civiles y los propios empleados de Facebook para que tomaran medidas a raíz de las protestas por el asesinato de George Floyd.
Aunque las medidas contra Trump fueron enérgicas, Zuckerberg no tomó ninguna otra contra Steve Bannon, un exasesor de Trump, después de que a fines del año pasado Bannon pidiera la decapitación de dos funcionarios estadounidenses. Facebook también permitió que el sitio fuera un patio de recreo para las campañas rusas de desinformación durante las elecciones del 2016.
“Tenemos reglas específicas sobre cuántas veces alguien debe violar ciertas políticas antes de que desactivemos su cuenta por completo”, dijo Zuckerberg a los empleados de Facebook después de que decidió no cerrar la de Bannon. “Si bien las ofensas aquí, creo, estuvieron cerca de cruzar esa línea, claramente no lo hicieron”.
En el mejor de los casos, Zuckerberg ha sido inconsistente en sus esfuerzos por limitar los abusos. En el peor de los casos, se ha hecho de la vista gorda ante problemas evidentes, lo que permite que estos abusos prosperen. Eso no se debe solo a que tiene que navegar por los matices sobre lo que constituyen las acciones dañinas y el lenguaje en la plataforma.
También se debe a que el modelo de negocio de Facebook se basa en el mismo tribalismo y polarización que fomentan los abusos y la desinformación.
“Todo lo que la empresa hace y elige no hacer fluye de una única motivación: el incansable deseo de crecimiento de Zuckerberg”, señaló un artículo reciente en el MIT Technology Review que examinó por qué Facebook no ha estado dispuesto a restringir de manera más agresiva el discurso de odio y las mentiras en sus plataformas.
En la vacilación sobre las vacunas, Zuckerberg se enfrenta a la última versión de este acertijo. Las redes sociales se han convertido en un recurso de referencia para las personas que buscan información confiable sobre atención médica, y debido a que Facebook controla cuatro de las cinco plataformas más importantes del mundo, con una audiencia de más de 2,000 millones de usuarios, sus decisiones influyen en la efectividad de las campañas de salud pública.
Algunos de los mensajes en contra de la vacunación que ha estudiado Facebook no violan las reglas que rigen el lenguaje incendiario. Gran parte del contenido lo categoriza como duda o preocupación acerca de las vacunas, no como desinformación flagrante.
Pero los documentos que obtuvo el Washington Post también indican que Facebook reconoce que la mensajería sigue siendo un problema. “Nos preocupa que el daño causado por el contenido no violado pueda ser sustancial”, decían los documentos.
El sentido común podría ser decisivo. A pesar de las olas de desinformación que comenzaron en Facebook, es posible aún que suficientes personas quieran vacunarse contra el COVID-19 para que la población en general esté protegida de los detractores.
Sin embargo, las realidades a las que se enfrenta Zuckerberg no van a desaparecer. Como este episodio debería recordarle, Facebook no es simplemente una máquina autosuficiente que le da al mundo un lugar para interactuar, comprar, planear y generar controversia.
De igual forma que los periódicos que ha eclipsado, Facebook también funciona como un filtro que controla el acceso, flujo y tono de la información.