Brad Smith
Brad Smith

planea implementar a fines de marzo principios éticos que ha elaborado para su tecnología de reconocimiento facial, en tanto exhorta a los gobiernos a avanzar con regulaciones acordes en ese campo.

La compañía reclamó en diciembre nuevas leyes que reglamenten el software de inteligencia artificial para reconocer rostros, propugnando la revisión humana y la supervisión de esa tecnología en algunos casos críticos, como modo de mitigar los riesgos de resultados tendenciosos y las violaciones de la privacidad y las libertades democráticas.

“Debemos liderar con el ejemplo y estamos trabajando para ello”, dijo en entrevista el presidente y director de asuntos legales de Microsoft, Brad Smith, agregando que algunas otras compañías también están implementando principios similares.

Smith señaló que la compañía planea “poner en funcionamiento” sus principios en marzo, lo que implica elaborar políticas, construir sistemas de gobernanza y herramientas de ingeniería y realizar pruebas para garantizar que estén en consonancia con sus objetivos.

También comprende establecer controles para las ventas mundiales de la compañía y equipos de consulta para impedir la venta de tecnología en los casos en que se corra el riesgo de que se la utilice para un fin no deseado.

El uso de software de reconocimiento facial por parte de las fuerzas policiales, la seguridad en las fronteras, las fuerzas armadas y otros organismos del gobierno ha suscitado preocupación por los riesgos de prejuicios y vigilancia masiva.

Las investigaciones han demostrado que algunos de los productos más populares cometen errores y funcionan peor con las personas de piel oscura. Microsoft, Amazon.com Inc. y Google de Alphabet Inc. han recibido protestas de empleados y grupos de defensa de derechos por la idea de vender software de IA a organismos del gobierno o la policía.

“Sin duda restringirían determinados escenarios o usos”, dijo Smith de los principios, añadiendo que Microsoft no necesariamente rechazaría proveer esta tecnología a los gobiernos. La compañía sólo quiere impedir que las fuerzas de seguridad usen la tecnología para la vigilancia constante de un individuo específico sin las salvaguardas preferidas, explicó.

La compañía ha rechazado contratos por esa razón, dijo. Uno fue un caso que, según Smith, habría equivalido a la vigilancia pública en la capital nacional “de un país en el que no estábamos seguros de que se protegerían los derechos humanos”. Otro fue la implementación por parte de un organismo policial de los Estados Unidos que “nos pareció que crearía riesgos indebidos de discriminación”.

A la pregunta de si Microsoft descartaría trabajar con las fuerzas policiales chinas, en especial a la luz de nuevas normas para juzgar a los ciudadanos por su comportamiento social, Smith respondió que “decididamente plantearía importantes preguntas en China”.

Dijo que, en todo caso, al parecer Pekín tiene más interés en obtener tecnología de reconocimiento facial de firmas locales que de las estadounidenses.

Pese a avanzar con normas autoimpuestas, la compañía dijo que es necesaria una regulación que abarque a toda la industria.

“Nunca se quiere crear un mercado que obligue a las compañías a elegir entre tener éxito y ser responsables y, si no tenemos un piso de regulación, se corre el riesgo de que ocurra eso”, señaló.