(Bloomberg).- A partir del jueves, vigilará YouTube como nunca lo ha hecho antes, agregando advertencias e inhabilitando la publicidad en videos que la compañía determine que contienen mensajes de odio o promuevan el terrorismo.

no eliminará los videos seleccionados, sino que establecerá nuevas restricciones para ver, compartir y ganar dinero con ellos. Una nota que detalla los cambios será enviada a los productores de los videos afectados el jueves, según una portavoz de la empresa de Alphabet Inc.

Google esbozó estas medidas en junio, pero la implementación se produce cuando el debate sobre el extremismo y el discurso político acaparan titulares en Estados Unidos y los gigantes de la tecnología como Google y Facebook se enfrentan a un escrutinio más profundo sobre cómo moderar la información distribuida a través de sus servicios digitales.

"Estos videos serán más difíciles de encontrar", dijo Kent Walker, el abogado de Google, sobre los planes en una entrada de blog en junio. "Esto alcanza un equilibrio correcto entre la libre expresión y el acceso a la información sin promover puntos de vista extremadamente ofensivos". Una portavoz de Google se negó a comentar más sobre los cambios.

Se espera que las nuevas restricciones afecten a una pequeña fracción de videos, según una persona familiarizada con la compañía. YouTube dice que sube más de 400 horas de video por minuto.

Los videos etiquetados por su nueva política no podrán publicar anuncios ni publicar comentarios y no aparecerán en ninguna de las listas recomendadas de YouTube.

Una pantalla de advertencia también aparecerá antes de los videos, que no podrán reproducirse cuando estén dentro de sitios web externos. YouTube permitirá a los creadores de los videos apelar las restricciones, dijo una portavoz.

A principios de este mes, YouTube, el servicio de video más grande del mundo, dijo que más de 75% de los videos eliminados por violar sus políticas fue identificado por su nuevo software antes de un humano. Con su última política, YouTube apunta a un contenido más delicado, como los videos que abrazan las teorías de negación del Holocausto y videos del supremacista blanco David Duke.

"YouTube no permite el discurso de odio o el contenido que promueve o incita a la violencia", dice la carta del jueves a los creadores de YouTube, según una copia vista por Bloomberg News.

A raíz de una manifestación de supremacía blanca en Charlottesville, Virginia, a principios de este mes, varias empresas de tecnología, incluyendo Google, Facebook y Airbnb Inc., han tomado medidas para eliminar a las personas y grupos asociados de sus plataformas.

TAGS RELACIONADOS