Elaine Ou
La forma más sencilla de evitar asumir la responsabilidad de una decisión impopular es transfiriéndola a una autoridad irracional e irrefutable. Por ejemplo: “Me encantaría ayudar en la mudanza este fin de semana, pero mi esposa no me lo permite” o “Nos encantaría restablecer la cuenta de Facebook de Donald Trump, pero la decisión depende de la Junta de supervisión de Facebook”.
La Junta de Supervisión de Facebook se estableció el año pasado como una “Corte Suprema” en la que las personas cuestionan las decisiones de la empresa de moderación de contenido. Recientemente, la junta anunció que había revocado cuatro reglas de eliminación de contenido inicialmente emitidas por la plataforma.
En un primer caso, Facebook eliminó una publicación de un usuario en Myanmar que incluía una imagen ampliamente compartida de un niño sirio que se ahogó al intentar llegar a Europa junto con un comentario peyorativo sobre los musulmanes. Si bien la publicación puede resultar claramente ofensiva, la junta determinó que esta no defendía el odio ni incitaba intencionalmente a ninguna forma de violencia, por lo que ordenó a Facebook que la restableciera. En otro caso, la junta confirmó la decisión de Facebook de eliminar una publicación sobre Azerbaiyán que incluía un insulto racial.
Ambos casos sirven de ejemplo para ilustrar la dificultad de mantener una política de moderación de contenido que satisfaga a los 2,000 millones de usuarios distribuidos por todo el planeta.
En lugar de resaltar cuán imposible es este esfuerzo, las acciones recientes solo crean expectativas de que las empresas de tecnología deberían asumir la responsabilidad del comportamiento generado en sus plataformas. La excomisionada de la Comisión de Bolsa de Valores (SEC,por sus siglas en inglés), Laura Unger, comparó en CNBC la locura desatada por GameStop con los disturbios del 6 de enero en el Capitolio de Estados Unidos, atribuyendo ambos eventos a un frenesí que recibió impulso a través de las redes sociales.
Con la intención, quizás, de anticiparse a la atención regulatoria, las plataformas tomaron iniciativa e inhabilitaron algunos sitios. La semana pasada, la plataforma de mensajería en línea Discord, prohibió el servidor del chat r / WallStreetBets en el apogeo del frenesí de GameStop diciendo que se había manejado “contenido discriminatorio y de odio”, una acusación vaga que podría aplicarse a cualquier otro foro sobresaliente en internet. Por otro lado, Reddit cerró temporalmente el subreddit r / WallStreetBets, y Facebook deshabilitó un grupo de discusión llamado Robinhood Stock Traders.
Resulta tentador exigir que las empresas de redes sociales resuelvan los problemas sociales amplificados en sus plataformas, pero es posible que estemos sobreestimando sus capacidades. En 2018, la empresa de análisis de datos Cambridge Analytica fue acusada de explotar los datos de los usuarios de Facebook para manipular a los votantes. Dichas acusaciones provocaron indignación masiva, un documental de Netflix y la formación de la Junta de Supervisión de Facebook. Pero después de una investigación de tres años, la Oficina del Comisionado de Información del Reino Unido no encontró evidencia de interferencia electoral y concluyó que el impacto de Cambridge Analytica había sido enormemente exagerado.
La falta de paralelismos históricos se ha convertido en un obstáculo en el debate sobre la responsabilidad de las redes sociales en crear problemas que supuestamente nunca antes habían existido. Pero considere el caso de los bancos en la Guerra contra las drogas que se remonta a hace casi 50 años. Hasta la década de 1970, no había mucho entusiasmo por cambiar las leyes y detener el lavado de dinero hasta que se intensificó el uso de drogas ilícitas. Durante la siguiente década, los bancos cumplieron a regañadientes los requisitos de información cuando los medios de comunicación participaron en una campaña de presión pública para nombrar y avergonzar a las instituciones infractoras.
A pesar de que los bancos internacionales jugaron un papel clave en el flujo de dinero ilícito, la vigilancia financiera no logró controlar un problema que era endémico. Aún así, las agencias de aplicación de la ley no simplemente subcontrataron sus trabajos a los bancos y se marcharon. Los reguladores proporcionaron reglas y pautas específicas para identificar actividades sospechosas.
Esperar que Facebook resuelva problemas como el discurso del odio y el terrorismo doméstico es como esperar que las instituciones financieras resuelvan el problema del tráfico de drogas. La plataforma estaría asumiendo la culpa de un fracaso que le corresponde a otras instituciones.
Si bien es posible que las plataformas de redes sociales no disfruten de su papel de chivos expiatorios, sí están algo motivadas para mantener la ilusión de tener una influencia significativa sobre el comportamiento del usuario. Después de todo, están en el negocio de la publicidad. Si Facebook no consigue alejar a los usuarios de las teorías de la conspiración, ¿cómo podría usted confiar en la plataforma para que dirija de manera asertiva la publicidad de su empresa?.
Una evaluación más honesta podría señalar la eficacia limitada de la moderación del contenido. Hace cuatro años, Mark Zuckerberg desestimó la acusación de que las noticias falsas influyeron en las elecciones presidenciales como una “idea bastante loca”. “Los votantes toman decisiones basadas en su experiencia vivida”, indicó.
Desde entonces, Facebook ha asumido la tarea de verificar las publicaciones sobre el COVID-19 y bloquear de manera preventiva las noticias cuestionables. No queda claro si algo llevó a Zuckerberg a cambiar de opinión o si cedió a la presión pública.
Pero, sin importar cuánto contenido dudoso elimine Facebook, será difícil restaurar la pérdida de confianza en los medios de comunicación o educar a los ciudadanos sobre cómo distinguir lo real de lo ficticio. No se puede esperar que una empresa de redes sociales proteja la integridad de las elecciones, prevenga los disturbios civiles y garantice un funcionamiento ordenado de los mercados.
Entonces, ¿es de extrañar que Facebook quiera una Junta de supervisión para detenga las críticas por cosas que no puede controlar, de la misma manera que el Congreso, los medios de comunicación y la SEC quieren usar a las empresas de tecnología como su propio escudo?