Redacción Gestión

redaccion@gestion.pe

(Bloomberg).- imagina perfectamente un futuro con robots que nos ayudarán a vaciar el lavavajilla y barrer el piso. La cuestión es garantizar que al hacerlo no tiren al piso involuntariamente un jarrón, o algo peor.

Investigadores de la unidad Google de Alphabet Inc., junto con colaboradores de la Universidad Stanford, la Universidad de California en Berkeley, y OpenAi –una empresa de desarrollo de inteligencia artificial financiada por Elon Musk- tienen algunas ideas para diseñar mentes de robot que no provoquen consecuencias desagradables para las personas a las que prestan servicio. El martes dieron a conocer un documento técnico en el que exponen sus ideas.

La motivación para la investigación es la enorme popularidad de la inteligencia artificial, el software capaz de recibir información sobre el mundo y luego actuar. Los sistemas actuales de IA permiten que los autos se conduzcan solos, interpretan lo que se habla en los teléfonos y conciben estrategias de comercialización para el mercado bursátil. En el futuro, las compañías proyectan usar la IA como asistentes personales, en un primer momento como servicios de software a la manera de Siri de Apple Inc. y Google Assistant, y más adelante como robots inteligentes capaces de emprender acciones por sí mismos.

Pero antes de dar a las máquinas inteligentes la posibilidad de tomar decisiones, es necesario garantizar que los objetivos de los robots coincidan con los de sus propietarios humanos.

"Si bien los posibles riesgos de la IA para la seguridad han recibido mucha atención pública, la mayor parte de la discusión hasta ahora ha sido hipotética y especulativa", escribió el investigador de Google, Chris Olah, en un mensaje de blog que acompaña el documento. "Creemos que es esencial fundamentar las preocupaciones en la investigación real del aprendizaje con máquinas y comenzar a desarrollar metodologías prácticas para elaborar sistemas de IA que operen de manera segura y confiable".

Estructura suficiente.El informe describe algunos de los problemas que pueden llegar a enfrentar los diseñadores de robots en el futuro y enumera algunas técnicas para desarrollar software que las máquinas inteligentes no puedan subvertir. El problema es la naturaleza indefinida de la inteligencia y el enigma es similar al que han enfrentado los reguladores en otras áreas, como el sistema financiero: ¿cómo diseñar normas que permitan a las entidades alcanzar sus objetivos dentro de un sistema que se regula de manera tal que no puedan subvertir dichas normas ni verse innecesariamente constreñidas por ellas?

[ LEA TAMBIÉN: ]

Por ejemplo, si se trata de un robot para la limpieza (y OpenAI se propone desarrollar un aparato de ese tipo): ¿cómo asegurarse, al recompensarlo, de no estar dándole un incentivo para hacer trampa? Si usted lo recompensa por limpiar una habitación, podría reaccionar barriendo el polvo debajo de la alfombra para que quede fuera de la vista, o podría aprender a apagar sus cámaras, impidiendo que usted vea un desastre y por ende le dé una recompensa.

Hacer trampa con la limpieza de la casa quizá no parezca un problema fundamental, pero los investigadores lo extrapolan a futuros usos posibles en los que se jueguen cosas más importantes. Con este documento, Google y sus colaboradores tratan de resolver problemas que solo pueden entender vagamente antes de que se manifiesten en sistemas del mundo real. En líneas generales, la idea es que estar algo preparados es mejor que no estarlo en absoluto.

TAGS RELACIONADOS