Por Alex Webb
Casi de manera instantánea luego de que se encendieran las llamas el lunes en la catedral Norte-Dame de París, las imágenes del fuego derribando la emblemática aguja de la torre del lugar se multiplicaron en redes sociales. Cada vez que un desastre se vuelve noticia a nivel internacional, como hemos en innumerables ocasiones, es una certeza que a continuación habrá un percance en Silicon Valley.
Esta vez fue YouTube el que metió la pata y el momento del error fue particularmente poco auspicioso, en un contexto en el que la regulación tecnológica se acerca a convertirse en parte de la legislación europea.
Esto fue lo que sucedió: como parte de un esfuerzo tendiente a frenar la difusión de teorías conspirativas, YouTube comenzó a colocar paneles con información abajo de ciertos videos. Estos espacios de texto ofrecen contexto, sacado de sitios como Wikipedia o la Enciclopedia Británica, que se supone ayuda a los usuarios a tomar una decisión informada sobre la veracidad del contenido.
Por ejemplo, un video que niegue el Holocausto estaría acompañado de información real sobre las atrocidades de la Segunda Guerra Mundial.
El problema es que el lunes, para los videos del incendio de Notre-Dame, los sistemas de YouTube decidieron mostrar información sobre los ataques terroristas del 11 de septiembre de 2001. Las dos torres de la fachada de la catedral aparentemente confundieron al sistema de reconocimiento de imágenes.
El error desafortunado se produjo en momentos en que políticos de la Unión Europea buscan regular el contenido en la web. La semana pasada, el comité de libertades civiles del Parlamento Europeo respaldó un borrador de nuevas normas en virtud de las cuales se aplicarían multas a firmas como Google, Facebook y Twitter si se demoran más de una hora en eliminar contenido terrorista publicado en sus sitios.
En Gran Bretaña, mientras tanto, se avanza con una ley de mayor alcance que cubre una serie de categorías calificadas como "daño en línea".
Los paneles con información adicional eran un intento de hacer frente a tal legislación y demostrar que YouTube es capaz de presentar contenidos a sus usuarios de manera responsable. En lugar de eso, en este caso le salió el tiro por la culata.
Facebook y Google afirman con frecuencia que sus problemas de contenidos se pueden resolver mediante la automatización, pero las herramientas automatizadas aún no demuestran que pueden frenar la difusión de material tóxico, en este caso cayendo en un error que un moderador humano jamás cometería.
El incidente, en un momento tan delicado, es un estimulante para los parlamentarios que buscan implementar normas más estrictas.