Un hito regulatorio a nivel mundial se marcó el miércoles 14 de junio tras el visto bueno del Parlamento de la Unión Europea en la que se aprueba la Ley de Inteligencia Artificial, la primera en el mundo que regulará su uso.
En abril de 2021, la Comisión Europea presentó el primer marco regulador de la Unión Europea para la Inteligencia Artificial (IA). Esta propuesta tenía como objetivo evaluar y clasificar los sistemas de IA según el nivel de riesgo que representan para sus usuarios en diversas aplicaciones.
Dichos niveles implican distintos grados de regulación que, tras ser aprobadas, se convertirán en las primeras normas sobre IA a nivel mundial.
LEA TAMBIÉN: ChatGPT: qué puedes hacer con la nueva herramienta de inteligencia artificial
Según la Unión Europea, el propósito de esta normativa es asegurar que el desarrollo y uso de IA en Europa cumpla plenamente con los derechos y valores fundamentales, incluyendo la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación, así como el bienestar social y medioambiental.
Los próximos pasos apuntan a que los eurodiputados adopten una posición negociadora sobre la ley de IA, con conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE. El objetivo es alcanzar un acuerdo a finales de este año.
LEA TAMBIÉN: Los puestos laborales en riesgo con el avance de la inteligencia artificial, tendencia llegaría a Perú
¿Qué dice la Unión Europea sobre el uso de la IA?
La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA.
Y es que, aunque muchos sistemas de IA plantean un riesgo mínimo, la Unión Europea sostuvo que es “necesario evaluarlos todos”.
Los sistemas de IA se clasifican según diferentes niveles de riesgo (inaceptable, alto y limitado). Así, se catalogan los diferentes usos de la IA y su efecto en el ser humano y su seguridad:
- Riesgo Inaceptable: Se consideran amenazas para las personas y serán prohibidos. Según la Ley, se prohíben usos como sistemas de identificación biométrica, categorización identitaria de datos biométricos y sistemas predictivos en la actividad policial, entre otros.
- Riesgo Alto: Los que perjudiquen la seguridad o los derechos fundamentales se clasificarán como de alto riesgo en dos categorías: los sistemas que utilicen productos sujetos a la legislación de la UE sobre la seguridad (automóviles, dispositivos médicos, ascensores, etc) y los sistemas de IA que pertenecen a ocho ámbitos específicos. Todos los sistemas de IA de alto riesgo serán evaluados antes de su lanzamiento y durante su vida útil. Estas evaluaciones de riesgos deberán considerar los posibles impactos negativos en los derechos fundamentales de las personas.
- Riesgo limitado: Deben cumplir requisitos de transparencia mínimos que permitan a los usuarios tomar decisiones informadas. Después de interactuar con las aplicaciones, los usuarios pueden decidir si desean continuar utilizándolas. Los usuarios deben estar conscientes de cuándo están interactuando con la IA, incluyendo los sistemas que generan o manipulan contenidos multimedia (por ejemplo, deepfakes).
LEA TAMBIÉN: Las habilidades humanas que la inteligencia artificial nunca reemplazará, ¿cuáles son?
Disfruta tus descuentos del Club de Suscriptores cuantas veces quieras gracias a tu suscripción a Gestión. Más de 300 promociones esperan por ti, descúbrelas aquí. Y si aún no eres suscriptor, adquiere tu plan aquí.