UNESCO 2021: Recomendación sobre la ética de la inteligencia artificial (IA)
La IA ya está entre nosotros y lo será aún más en el futuro cercano. Hace un mes la consultora internacional Ernst &Young informó que el 15% de los puestos de trabajo en oficinas de la región andina se automatizará por esta tecnología en cinco a seis años. Es obvio que genera beneficios a nivel de las empresas y las familias; la interrogante es que ocurrirá a nivel agregado donde hay muchos elementos positivos, pero también negativos asociados a un nuevo balance donde predominaría la exclusión neta de mano de obra, mayores niveles de desigualdad económica y otros perjuicios.
Es hora de que iniciemos en el Perú la evaluación, discusión y regulación, en su caso, de estas tecnologías. Un primer paso fue la Ley 31601, promulgada el 4 de noviembre, que modifica el Código de Protección al Consumidor donde se establece el derecho a contar con opción o alternativa de atención personal cuando el proveedor ofrezca al público cualquier sistema de atención automatizada asistido por IA o asistente digital; Sin embargo, falta mucho por analizar.
En la pasada Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021 se aprobó la primera Recomendación sobre la Ética de la Inteligencia Artificial. En esta se recomienda la adopción de las medidas legislativas que puedan ser necesarias con el fin de concretar los principios y normas enunciados; asimismo, sugiere que se hagan partícipes a todas las partes interesadas: autoridades, organismos, empresas, organizaciones universitarias y de investigación, instituciones y organizaciones de los sectores público, privado y de la sociedad civil para que el desarrollo y su utilización se guíen tanto por una investigación científica sólida como por un análisis y una evaluación éticos.
Objetivos
La recomendación tiene por objeto servir de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, así como para prevenir daños. Aspira también a estimular la utilización de los sistemas de IA con fines pacíficos.
Asimismo, pretende aportar un instrumento normativo aceptado mundialmente que no solo se centre en la articulación de valores y principios, sino también en su aplicación práctica, mediante recomendaciones de política concretas, haciendo hincapié en la inclusión, las cuestiones de igualdad de género y la protección del medio ambiente y los ecosistemas. Por otra parte, la complejidad de sus derivaciones éticas exige la cooperación de las comunidades internacionales, regionales y nacionales.
Ámbito de aplicación
La recomendación trata de las cuestiones éticas relacionadas con el ámbito de la IA en la medida en que competen al mandato de la UNESCO. Aborda la ética de la IA como una reflexión normativa sistemática, basada en un marco integral, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede guiar a las sociedades para afrontar los efectos conocidos y desconocidos de las tecnologías de la IA en los seres humanos, las sociedades, el medio ambiente y los ecosistemas, y les ofrece una base para aceptarlas o rechazarlas.
Considera la ética como una base dinámica para la evaluación y la orientación normativas de las tecnologías de la IA, tomando como referencia la dignidad humana, el bienestar y la prevención de daños y apoyándose en la ética de la ciencia y la tecnología. No pretende proporcionar una única definición de la IA, ya que esta tendría que cambiar en función de los avances tecnológicos.
Temas éticos
Las cuestiones éticas relativas a los sistemas de IA atañen a todas las etapas del ciclo de vida de estos sistemas, que según la recomendación se entiende que van desde la investigación, la concepción y el desarrollo hasta el despliegue y la utilización, pasando por el mantenimiento, el funcionamiento, la comercialización, la financiación, el seguimiento y la evaluación, la validación, el fin de la utilización, el desmontaje y la terminación.
Estas incluyen su impacto en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación.
Evitar sesgos
Además, surgen nuevos desafíos éticos por el potencial de los algoritmos de la IA para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos. Algunas de estas cuestiones tienen que ver con la capacidad de los sistemas de IA para realizar tareas que antes solo podían hacer los seres vivos y que, en algunos casos, incluso se limitaban solo a los seres humanos.
Estas características otorgan a los sistemas de IA una función determinante en las prácticas y la sociedad humanas, así como en su relación con el medio ambiente y los ecosistemas, creando un nuevo contexto para que los niños y los jóvenes crezcan, desarrollen una comprensión del mundo y de sí mismos, comprendan críticamente los medios de comunicación y la información y aprendan a tomar decisiones. A largo plazo, los sistemas de IA podrían disputar al ser humano el sentido especial de la experiencia y la capacidad de actuar que le son propios, lo que plantearía nuevas inquietudes sobre la autocomprensión, la interacción social, cultural y ambiental, la autonomía, la capacidad de actuar, el valor y la dignidad del ser humano, entre otras.
Justificación
La recomendación establece que se deben reconocer las repercusiones positivas y negativas profundas y dinámicas de la IA en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, en particular en la mente humana, debido en parte a las nuevas formas en que su utilización influye en el pensamiento, las interacciones y la adopción de decisiones de los seres humanos y afecta a la educación, las ciencias sociales y humanas, las ciencias exactas y naturales, la cultura y la comunicación y la información.
Asimismo, las tecnologías de la IA pueden agravar las divisiones y desigualdades existentes en el mundo, dentro de los países y entre ellos, y que es preciso defender la justicia, la confianza y la equidad para que ningún país y ninguna persona se queden atrás. Por otra parte, se reconoce que el desarrollo de las tecnologías de la IA requiere un incremento proporcional de la educación en materia de datos y de la alfabetización mediática e informacional, así como el acceso a fuentes de información independientes, pluralistas y fidedignas. Por último, la IA también puede hacer aumentar la tensión en lo que respecta al acceso asimétrico a los conocimientos y las tecnologías.
Valores
Los valores y principios que figuran a continuación deberían ser respetados por todos los actores durante el ciclo de vida de los sistemas de IA. En primer lugar, y, cuando resulte necesario y conveniente, ser promovidos mediante modificaciones de las leyes, los reglamentos y las directrices empresariales existentes y la elaboración de otros nuevos. Los valores desempeñan una importante función como ideales que motivan la orientación de las medidas de política y las normas jurídica.
Estos son: 1) respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana; 2) procurar la prosperidad del medio ambiente y los ecosistemas; 3) garantizar la diversidad y la inclusión; y 4) vivir en sociedades pacíficas, justas e interconectadas.
Principios
Debería reconocerse que las tecnologías de la IA no garantizan necesariamente, por sí mismas, la prosperidad de los seres humanos ni del medio ambiente y los ecosistemas. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y deberían tenerse en cuenta, prevenirse y eliminarse a lo largo del ciclo de vida de los sistemas de IA.
Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, de conformidad con el derecho internacional. La llegada de las tecnologías de la IA puede beneficiar los objetivos de sostenibilidad o dificultar su consecución, dependiendo de la forma en que se apliquen en países con diferentes niveles de desarrollo. La privacidad, que constituye un derecho esencial para la protección de la dignidad, la autonomía y la capacidad de actuar de los seres humanos, debe ser respetada, protegida y promovida a lo largo del ciclo de vida de los sistemas de IA.
Transparencia y supervisión
La transparencia y la explicabilidad de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, la protección y la promoción de los derechos humanos, las libertades fundamentales y los principios éticos. Los países deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, a personas físicas o a entidades jurídicas existentes. La supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública, según corresponda.
Deberían elaborarse mecanismos adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades, para garantizar la rendición de cuentas respecto de los sistemas de IA y de su impacto a lo largo de su ciclo de vida. En la utilización de datos deben respetarse el derecho internacional y la soberanía nacional. Esto significa que los Estados, pueden regular los datos generados dentro de sus territorios o que pasan por ellos y adoptar medidas para la regulación efectiva de los datos, en particular su protección, sobre la base del respeto del derecho a la privacidad.
Acciones políticas
Las acciones políticas (once en concreto) que describe la recomendación ponen en práctica los valores y principios enunciados anteriormente. La principal acción consiste en que los países establezcan medidas eficaces, por ejemplo, marcos o mecanismos normativos, y velen por que otras partes interesadas, como las empresas del sector privado, las instituciones universitarias y de investigación y la sociedad civil, se adhieran a ellas.
Asimismo, estas acciones comprenden la evaluación continua de impacto ético, una política de datos, mejora de la gobernanza, desarrollo y cooperación internacional, medio ambiente, género, cultura, educación e investigación, economía y trabajo, salud y bienestar social, ente otras.
El proceso de elaboración de esas políticas o mecanismos debería incluir a todas las partes interesadas y tener en cuenta las circunstancias y prioridades de cada país. El documento finaliza tanto con una propuesta de sistema de seguimiento y evaluación, como de promoción y difusión de esta recomendación.