Bloomberg.- Cuando los supremacistas blancos planean manifestaciones como la de unos días atrás en Charlottesville, Virginia, a menudo organizan sus eventos en Facebook, pagan los suministros con PayPal, reservan su alojamiento a través de Airbnb y se trasladan con Uber.

Las compañías tecnológicas, por su parte, se han esforzado en tomar distancia de esos clientes.

Pero a veces hace falta más que sistemas automatizados o quejas de otros usuarios para identificar y bloquear a aquellos que promueven discursos de odio o violencia, de modo que las compañías están hallando maneras novedosas de detectar y eliminar el contenido que consideran inapropiado o peligroso.

Las personas no suelen difundir sus opiniones en la cuenta de Airbnb, por ejemplo. Pero después de cotejar los nombres de usuarios con posteos en los perfiles de los medios sociales, la empresa canceló decenas de reservas efectuadas por autodenominados nazis que usaban su aplicación para encontrar habitaciones en Charlottesville, a donde se dirigían para protestar por el traslado de una estatua de la Confederación.

En Facebook Inc., que recurre al feedback de la comunidad para detectar el contenido de odio para su eliminación, los grupos privados de la red social destinados a personas de opiniones similares pueden ser refugios de extremistas que se cuelan por las grietas del sistema de moderación de contenidos.

La compañía está trabajando rápidamente para mejorar sus capacidades de aprendizaje automático para poder identificar las publicaciones que deberían ser revisadas por moderadores humanos.

Estas acciones más agresivas constituyen un cambio en la forma en que las empresas ven sus responsabilidades. Prácticamente todos estos servicios desde hace mucho tienen normas sobre el modo en que deberían comportarse los usuarios pero en el pasado en general aplicaban estas políticas como respuesta al mal comportamiento.

Después de la violencia que se vio en Charlottesville, que se tradujo en la muerte de una manifestante contraria, su enfoque se ha vuelto más proactivo, previendo futuros acontecimientos.

Si bien las compañías de medios sociales desde hace años tratan de encontrar la manera de eliminar el lenguaje y las imágenes de odio de sus sitios, los acontecimientos de los últimos días fueron un duro recordatorio de lo real, presente y local que puede ser la amenaza que plantean los supremacistas blancos.

La aplicación de transporte privado Uber Technologies Inc. les dijo a sus conductores que no tienen que recoger a los racistas y PayPal Inc. informó que tiene la capacidad de cancelar las relaciones con sitios que fomentan la intolerancia racial.

Hasta Discover Financial Services, la empresa de tarjetas de crédito, dijo esta semana que pondría fin a sus acuerdos con los grupos de odio. Color of Change señaló que Apple Inc. también había tomado medidas para impedir que los sitios de odio utilizaran Apple Pay.

Facebook cerró ocho páginas de grupos que, según dijo, violaban las políticas sobre discursos de odio, incluidas las de "Right Wing Death Squad" y "White Nationalists United."

"Un cosa es decir: no permitimos los grupos de odio. Otra cosa es ir y perseguir a esos grupos, tomar esas decisiones y echar a esa gente", declaró Gerald Kane, profesor de sistemas de información de The Boston College Carroll School of Management. "Es algo que la mayoría de estas compañías evitó intencional y fervientemente en los últimos 10 años".

Históricamente, las empresas han evitado tratar de determinar que es bueno y qué es mal, dijo Kane. Pero, dado el debate público cada vez más acalorado en los Estados Unidos, puede que sientan la necesidad de actuar, agregó.

TAGS RELACIONADOS