La tecnología de reconocimiento facial ya permeaba el día a día de la gente, desde sus fotografías de Facebook hasta en los escaneos de las fotos policiales, cuando Joy Buolamwini se dio cuenta de un problema técnico importante: algunos softwares no detectaban los rostros de piel oscura como el de ella.
La revelación hizo que la investigadora del Instituto de Tecnología de Massachusetts (MIT por sus siglas en inglés) emprendiera un proyecto que está teniendo una influencia descomunal en el debate sobre cómo la inteligencia artificial debería ser implementada en el mundo real.
Las pruebas que realizó en el software creado por empresas de tecnología como Amazon, descubrieron unos índices de error mucho más altos cuando se clasificaba el género de las mujeres de piel oscura que en los hombres de piel más clara.
Durante el proceso, Buolamwini ha apremiado a Microsoft y a IBM a mejorar sus sistemas y causó molestia a Amazon, que respondió atacando públicamente sus métodos de investigación.
El miércoles, un grupo de académicos, incluido el ganador de un premio de informática, defendió su trabajo y pidió a Amazon que dejara de vender su software de reconocimiento facial a la policía.
Su investigación también llamó la atención de los líderes políticos en los congresos estatales y federal, y provocó que algunos buscaran imponer límites en el uso de las herramientas de visión artificial para analizar los rostros humanos.
“Debe haber una alternativa”, dijo Buolamwini, estudiante de posgrado e investigadora en el Laboratorio de Medios del MIT.
Ahora mismo, lo que ocurre es que estas tecnologías están siendo desplegadas sin una supervisión, a menudo de forma encubierta, para que cuando nos demos cuenta sea casi demasiado tarde”.
Buolamwini no es la única que ha expresado estar preocupada por la adopción tan rápida del reconocimiento facial por parte de la policía, las agencias gubernamentales y negocios que van desde tiendas hasta complejos de apartamentos.
Muchos investigadores han demostrado cómo los sistemas de inteligencia artificial, que buscan patrones en enormes bancos de datos, imitarán los sesgos institucionales que existen en los bancos de datos de los que están aprendiendo.
Por ejemplo, si los sistemas de inteligencia artificial se desarrollan con el uso de imágenes de hombres blancos, los sistemas trabajarán mejor al reconocer a las personas de piel clara.
Esas disparidades pueden ser, en ocasiones, cuestiones de vida o muerte. Un estudio reciente de los sistemas de visión artificial que habilitan que los automóviles autónomos “vean” el camino muestra que tienen problemas para detectar a los transeúntes con tonos de piel oscura.
Lo que ha llamado la atención sobre el trabajo de Boulamwini es el método que ha utilizado para analizar los sistemas creados por compañías de renombre. Aplica esos sistemas a una escala de tonos de piel usada por los dermatólogos, luego nombra y exhibe a aquellos que mostraron sesgos raciales y de género.
Buolamwini, que también fundó una coalición de académicos, activistas y otras personas llamada Algorithmic Justice League (Liga de la Justicia Algorítmica) ha mezclado sus investigaciones académicas con el activismo.