Facebook tiene su base de operaciones europeas en Dublín, capital de Irlanda. (Foto: EFE)
Facebook tiene su base de operaciones europeas en Dublín, capital de Irlanda. (Foto: EFE)

La red social más usada del mundo, informó que desactivó entre enero y marzo de este año 2,190 millones de cuentas falsas, en su mayoría gestionadas por robots, una cifra tan elevada que prácticamente iguala el número total de usuarios de la plataforma a nivel mundial.

La empresa que dirige publicó este jueves la tercera edición de su informe sobre el cumplimiento de las normas comunitarias, en el que explica los avances llevados a cabo por la compañía en materia de lucha contra las cuentas y la información falsas, las actividades ilegales y los contenidos que considera no adecuados.

"La cantidad de cuentas que eliminamos se incrementó a causa de los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo", indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen.

El directivo detalló que se desactivaron 1,200 millones de estas cuentas en el último trimestre del 2018 y 2,190 millones en el primero del 2019, lo que representa una cifra muy cercana a los 2,380 millones de usuarios activos mensuales legítimos que tiene , según los últimos datos disponibles.

En cuanto al llamado "discurso del odio" dirigido a grupos sociales específicos, la empresa de Menlo Park (California, EE.UU.) se felicitó por haber incrementado la cantidad de contenidos retirados de los 3.3 millones con que cerró el último trimestre del 2018 a los 4 millones en los primeros tres meses del 2019.

La firma explicó que de estos 4 millones de "mensajes de odio" publicados, un 65.4% fueron retirados tras ser detectados por los sistemas dede la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios.

"Las distintas culturas del mundo entienden la libertad de expresión de formas distintas. Es imposible construir un único sistema de moderación que funcione en todo el mundo", dijo tras presentar los resultados el cofundador y consejero delegado de la empresa,

La compañía se encuentra en el punto de mira con respecto a cómo gestiona la publicación de contenidos falsos, de carácter sexual, de odio o violentos por parte de usuarios después del tiroteo en dos mezquitas de Nueva Zelanda el pasado marzo que se saldó con la vida de 51 personas y que fue retransmitido en directo por Facebook Live.