Facebook
Facebook

publicó por primera vez un balance cifrado de sus esfuerzos para suprimir de su plataforma los contenidos que infringen las reglas de uso, ya sean imágenes de carácter sexual, comentarios de odio o propaganda terrorista.

Según este informe inédito, que se inscribe dentro de los esfuerzos de transparencia del grupo confrontado al escándalo de Cambrige Analytica, 3.4 millones de imágenes violentas fueron suprimidas o acompañadas de una advertencia durante el primer trimestre del 2018, casi el triple que en el trimestre anterior.

Un aumento debido principalmente, según la red social, a una mejoría de sus tecnologías de análisis, que recurren cada vez más a la inteligencia artificial. En cerca del 86% de los casos, estas imágenes fueron detectadas por la red antes de que le fueran señaladas, y representaron menos del 0.3% de los contenidos visionados en su plataforma entre enero y marzo.

Respecto a las imágenes de desnudez o actividad sexual (con excepción de la pedopornografía), el grupo dice haber eliminado 21 millones de elementos durante el primer trimestre, tantos como en el precedente. Esto supone menos del 0.1% de los contenidos visionados, y en casi el 96% de los casos las imágenes se suprimen antes de cualquier denuncia. A veces con demasiado celo, como cuando la red social censuró obras de arte toleradas por sus reglas como "La libertad guiando al pueblo" del pintor francés Delacroix.

Respecto a la propaganda terrorista, el grupo confirmó cifras de fin de abril: 1.9 millones de contenidos se suprimieron en el primer trimestre, un 73% más que en el cuarto trimestre del 2017, gracias a mejoras tecnológicas. Un 99.5% de los contenidos se eliminaron antes de que se señalaran.

En cambio, tiene problemas para detectar los mensajes de odio. El grupo dice haber suprimido 2.5 millones de estos mensajes en el primer trimestre (un 56% más que en el trimestre anterior), pero sólo el 38% fueron detectados antes de que fueran señalados. Lamentablemente, no dio ninguna estimación de su prevalencia en la plataforma.

El grupo explica que le cuesta gestionar estos mensajes porque la inteligencia artificial todavía tiene dificultades para separar el grano de la paja. Algunas minorías, por ejemplo, pueden "reapropiarse" de los insultos racistas u homófobos en su contra para denunciarlos, lo que en principio está autorizado por la plataforma. Y sólo los ataques contra las personas están prohibidos, no así los que están dirigidos contra una ideología o una institución.