Los empleados de Facebook llevan años advirtiendo que mientras la compañía se convertía en un servicio global no controlaba el contenido abusivo en países donde tal discurso probablemente causaría el mayor daño, según entrevistas con cinco exempleados y documentos internos de la compañía vistos por Reuters.
Durante más de una década, Facebook ha presionado para convertirse en la plataforma en línea dominante del mundo. En la actualidad opera en más de 190 países y cuenta con más de 2,800 millones de usuarios mensuales que publican contenido en más de 160 idiomas.
No obstante, sus esfuerzos para impedir que sus productos se conviertan en conductos para el discurso de odio, la retórica incendiaria y la desinformación -algunos de los cuales han sido acusados, incluso, de incitar a la violencia- no siguieron el ritmo de su expansión global.
Documentos internos de la firma vistos por Reuters muestran que Facebook sabía que no contrató suficientes trabajadores con las habilidades lingüísticas y el conocimiento de los eventos locales necesarios para identificar publicaciones objetables de usuarios en varios países en desarrollo.
Los documentos también mostraron que Facebook emplea sistemas de inteligencia artificial para erradicar ese contenido que con frecuencia tampoco están a la altura. Asimismo, tampoco ha hecho fácil que sus propios usuarios globales marquen las publicaciones que violan las reglas del sitio.
Según advirtieron los empleados en los documentos, esas deficiencias podrían limitar la capacidad de la compañía para cumplir su promesa de bloquear el discurso de odio y otras publicaciones que infrinjan sus reglas en lugares desde Afganistán a Yemen.
En una revisión publicada en el tablero de mensajes interno de Facebook el año pasado sobre las formas en que la compañía identifica los abusos en su sitio, un empleado informó de “brechas significativas” en ciertos países en riesgo de violencia en el mundo real, sobre todo en Myanmar y Etiopía.
Los documentos forman parte de una serie de revelaciones hechas a la Comisión de Bolsa y Valores de Estados Unidos y al Congreso por Frances Haugen, una exgerente de productos de Facebook que dejó la empresa en mayo.
Reuters es uno de los medios de comunicación que tuvo acceso a los documentos, que incluyen presentaciones, informes y publicaciones compartidos en el tablero de mensajes interno de la empresa. Su existencia fue reportada por primera vez por The Wall Street Journal.
La portavoz de Facebook, Mavis Jones, dijo en un comunicado que la compañía tiene hablantes nativos en todo el mundo que revisan contenidos en más de 70 idiomas, así como expertos en temas humanitarios y derechos humanos. Según señaló, estos equipos trabajan para frenar el abuso en la plataforma en lugares donde existe un mayor riesgo de conflicto y violencia.
“Sabemos que estos desafíos son reales y estamos orgullosos del trabajo que hemos realizado hasta la fecha”, afirmó.
Aun así, los documentos ofrecen ejemplos detallados de cómo los empleados han hecho sonar las alarmas en los últimos años sobre los problemas con las herramientas de la empresa -tanto humanas como tecnológicas- destinadas a erradicar o bloquear discursos que violan sus propios estándares.
Entre las debilidades citadas está la falta de algoritmos de detección para los idiomas utilizados en algunos de los países que Facebook ha considerado más “en riesgo” de posibles daños y violencia en el mundo real derivados de abusos en su sitio.
La firma designa a los países “en riesgo” basándose en variables que incluyen disturbios, violencia étnica, número de usuarios y leyes vigentes, dijeron a Reuters dos exempleados. El sistema tiene como objetivo dirigir los recursos a lugares donde los abusos en su sitio podrían tener el impacto más severo, dijeron las personas.
Facebook revisa y prioriza estos países cada seis meses, de acuerdo con las pautas de Naciones Unidas diseñadas para ayudar a las empresas a prevenir y remediar los abusos de los derechos humanos en sus operaciones comerciales, dijo Jones.
En el 2018, expertos de la ONU que investigaban una brutal campaña de asesinatos y expulsiones contra la minoría musulmana rohinyá de Myanmar dijeron que Facebook se usaba ampliamente para difundir discursos de odio hacia ellos.
Eso llevó a la compañía a aumentar su personal en países vulnerables, dijo un exempleado a Reuters, aunque Facebook dijo que debería haber hecho más para evitar que la plataforma se usara para incitar a la violencia.
Ashraf Zeitoon, exjefe de políticas de Facebook para Medio Oriente y África del Norte, quien se fue en el 2017, dijo que el enfoque de la empresa para el crecimiento global era “colonial”, centrado en la monetización sin medidas de seguridad.