Escribe: Martin Naranjo, presidente de Asbanc
El capitán Paiva, cuenta Ricardo Palma en la tradición titulada “Al pie de la letra”, se distinguía por su fortaleza y por su bravura en el campo de batalla, pero sobre todo por “la pobreza de su meollo”; es decir, el capitán Paiva era un hombre disciplinado y gran guerrero, pero, como diría Don Quijote sobre Sancho tenía “el más corto entendimiento que tiene ni tuvo escudero en el mundo”. Sin embargo, a diferencia de Sancho, Paiva carecía del más mínimo sentido común.
El capitán Paiva entendía todo al pie de la letra, sin espacio alguno para metáforas o matices contextuales. Así, por ejemplo, dejó completamente derribada y aplanada una vivienda cuando lo que le ordenaron fue allanarla. En otra ocasión, más tristemente, Paiva fusiló a Cuculí, un amigo de la infancia del general Salaverry. Cuculí era el barbero de Salaverry y tenía un comportamiento libertino y problemático. El general Salaverry, ante tanta conducta fuera de lugar, le pidió a Paiva que fusilara a Cuculí “entre dos luces”, aludiendo a que lo hiciera al amanecer, de manera de poder levantar la orden a tiempo para darle el susto de su vida a Cuculí y que así termine de escarmentar. Cuando Salaverry quiso levantar la orden, Paiva ya había fusilado a Cuculí, entre dos faroles, cumpliendo la orden al pie de la letra.
El problema de la discrepancia entre la intención y los resultados, entre lo que pides y lo que obtienes, es un problema general que se produce en muchos ámbitos. Claramente, buenas intenciones no garantizan buenos resultados. Los ejemplos abundan al respecto, desde el tope a las tasas de interés que logra multiplicar el gota a gota, la violencia y las extorsiones, o el exceso de reglamentación de la formalidad que produce más informalidad, hasta el registro de mineros informales que termina por blindar actividades no deseadas o los límites al financiamiento de partidos políticos que favorecen fuentes ilícitas.
LEA TAMBIÉN: Liderazgo en la era de la IA y la Gen Z: Cinco dilemas en la toma de decisiones
En el ámbito de la Inteligencia Artificial (IA), el problema de esta discrepancia entre lo que pides y lo que obtienes se conoce como el “problema de alineamiento” y tiene que ver con las consecuencias no intencionadas de sistemas con cada vez más agencia: se refiere a la dificultad de asegurar que los objetivos y los comportamientos de los sistemas de IA estén alineados con los valores y objetivos humanos. Al igual que Paiva, la IA necesita de instrucciones claras y bien alineadas con los objetivos. La IA puede cortar caminos, optimizar fuera de contexto, perseguir objetivos no deseados, incluso ejecutar acciones no deseadas y generar resultados imprevistos. En este sentido, asegurar un correcto alineamiento es crucial para evitar malentendidos tecnológicos.
El problema de alineamiento en la IA, igual que con Salaverry y Paiva, surge por la dificultad de traducir los objetivos humanos en instrucciones precisas y comprensibles para las máquinas. La complejidad de las intenciones humanas, típicamente contextuales y abstractas, no es siempre compatible con la necesidad de instrucciones explícitas y detalladas de los programas detrás de la IA. Sistemas de recomendación que desinforman, que generan polarización o que producen adicción a las redes sociales; o sistemas de reconocimiento facial que reproducen sesgos raciales o que llevan a identificaciones incorrectas y terminan discriminando a ciertos grupos; o las alucinaciones o respuestas inventadas con contenido verosímil pero falso, son ejemplos en donde la falta de alineamiento de la IA es más evidente.
La ambigüedad del lenguaje natural, sus diferentes significados dependiendo de los contextos implícitos, los matices y las sutilezas que surgen de la entonación e incluso del lenguaje corporal, lleva a que las interpretaciones literales de las instrucciones sean incorrectas. Por otro lado, las métricas para optimizar por la IA no siempre pueden captar la intención o las dimensiones éticas de los objetivos humanos.
LEA TAMBIÉN: IA en ciberseguridad: profesionales que necesitará Perú en 2025 por nuevas amenazas
También sucede con frecuencia que la IA replica los sesgos inherentes a los datos con los que es entrenada; estos sesgos también pueden influir y desviar los resultados que arroja la IA por fuera de los objetivos deseados. Asimismo, la complejidad de las tareas encomendadas y la naturaleza cambiante de los objetivos requieren de un entendimiento profundo del contexto. Resolver problemas que requieren de más información es distinto a resolver problemas que requieren de más criterio.
La ausencia de esta capacidad de contextualización, de criterio para entender y adaptarse a las intenciones humanas, sigue siendo un reto importante para la IA, especialmente para evitar las consecuencias no deseadas al escalar soluciones. Una preocupación latente entre algunos expertos tiene que ver con que los riesgos existenciales para la humanidad no pueden descartarse completamente; por ello, resolver el problema de alineamiento es esencial para prevenir los escenarios en los que la IA, como Paiva, termine allanando nuestras instituciones o, peor aún, fusilándonos entre dos luces.
Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.