Ley de Inteligencia Artificial (IA) de la Unión Europea
Luego de un arduo proceso de negociaciones, el Parlamento Europeo, la Comisión Europea (CE) alcanzaron un acuerdo político sobre la Ley de IA de la Unión Europea (UE) el 8 de diciembre de 2023. De ahí en adelante se lleva a cabo un proceso de adecuación, armonización y ajustes considerando las diferentes particularidades nacionales y que está a punto de culminar (https://artificialintelligenceact.eu/es/ai-act-explorer/).
Una vez en vigor, será probablemente la primera regulación integral de la IA del mundo. Aquí se presenta la versión de finales de febrero de 2024. La ley de IA, según la CE, garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA plantean riesgos limitados o nulos y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que se deben abordar para evitar resultados indeseables.
Objetivos de la norma
Según la CE la ley de IA tiene como objetivo proporcionar a los desarrolladores e implementadores de IA requisitos y obligaciones claros con respecto a usos específicos de la IA. Al mismo tiempo, el reglamento pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYME).
La ley es parte de un paquete más amplio de medidas políticas para apoyar el desarrollo de una IA confiable, que también incluye el paquete de Innovación y el Plan Coordinado sobre IA. Juntas, estas medidas garantizarían la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. También fortalecerían la adopción, la inversión y la innovación en IA en toda la UE.
Esta ley es el primer marco jurídico integral sobre IA en todo el mundo. El objetivo de las nuevas normas es fomentar una IA fiable en Europa y más allá, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes.
Elementos clave
Según la CE la ley clasifica la IA en función de su riesgo. Al respecto, se prohíben los riesgos inaceptables (por ejemplo, los sistemas de puntuación social y la IA manipuladora). Por otra parte, la mayor parte del texto aborda los sistemas de IA de alto riesgo, que están regulados.
Una sección más pequeña se ocupa de los sistemas de IA de riesgo limitado, sujetos a obligaciones de transparencia más ligeras: los desarrolladores e implantadores deben garantizar que los usuarios finales sean conscientes de que están interactuando con IA (chatbots y deepfakes). El riesgo mínimo no está regulado (incluida la mayoría de las aplicaciones de IA actualmente disponibles en el mercado único de la UE, como los videojuegos.
Responsabilidades
La mayoría de las obligaciones recaen en los proveedores (desarrolladores) de sistemas de IA de alto riesgo anota la CE. Esto incluye a los que pretendan comercializar o poner en servicio sistemas de IA de alto riesgo en la UE, independientemente de que tengan su sede en la UE o en un tercer país; y también proveedores de terceros países en los que el producto del sistema de IA de alto riesgo se utiliza en la UE.
Los usuarios son personas físicas o jurídicas que despliegan un sistema de IA a título profesional, no usuarios finales afectados. Los usuarios (implantadores) de sistemas de IA de alto riesgo tienen algunas obligaciones, aunque menos que los proveedores (desarrolladores). Esto se aplica a los usuarios ubicados en la UE y a los usuarios de terceros países en los que la producción del sistema de IA se utiliza en la UE.
IA de propósito general (GPAI)
La norma entiende por modelo GPAI cuando se ha entrenado con una gran cantidad de datos utilizando autosupervisión a escala, que muestra una generalidad significativa y es capaz de realizar de forma competente una amplia gama de tareas distintas, independientemente de la forma en que se comercialice el modelo, y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.
Todos los proveedores de modelos GPAI deben proporcionar documentación técnica, instrucciones de uso, cumplir la directiva sobre derechos de autor y publicar un resumen sobre los contenidos utilizados para la formación. Los proveedores de modelos GPAI de licencia libre y abierta sólo tienen que respetar los derechos de autor y publicar el resumen de datos de formación, a menos que presenten un riesgo sistémico.
Todos los proveedores de modelos GPAI que presenten un riesgo sistémico -abiertos o cerrados- también deben realizar evaluaciones de modelos, pruebas de adversarios, rastrear y notificar incidentes graves y garantizar protecciones de ciberseguridad.
Sistemas prohibidos
La lista elaborada por la CE incluye sistemas que desplieguen técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, causando un daño significativo. Asimismo, explotar las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos.
Por otra parte, incorpora sistemas de categorización biométrica que infieran atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida u orientación sexuales), excepto el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente o cuando las fuerzas de seguridad categoricen datos biométricos.
Contemplan también sistemas de puntuación social, es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato perjudicial o desfavorable a esas personas.
IA predictiva
La norma incluye dentro de los prohibidos a los sistemas de IA para evaluar el riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad, excepto cuando se utilice para aumentar las evaluaciones humanas basadas en hechos objetivos y verificables directamente relacionados con la actividad delictiva.
La compilación de bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de Internet o de grabaciones de CCTV; inferir emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad.
También la identificación biométrica remota (RBI) en tiempo real en espacios de acceso público para las fuerzas de seguridad con precondiciones excepto en: a) caso de búsqueda de personas desaparecidas, víctimas de secuestros y personas víctimas de la trata de seres humanos o la explotación sexual; b) prevenir una amenaza sustancial e inminente para la vida, o un ataque terrorista previsible; c) identificar a sospechosos de delitos graves.
Definición alto riesgo
Según la CE los sistemas de IA se consideran siempre de alto riesgo si realizan perfiles de las personas, es decir, el tratamiento automatizado de datos personales. Esto incluye a los que se utilizan para evaluar diversos aspectos de la vida de una persona, como su rendimiento laboral, su situación económica, su salud, sus preferencias, sus intereses, su fiabilidad, su comportamiento, su ubicación o sus movimientos.
También son de alto riesgo los sistemas que utilizan como componente de seguridad o producto cubierto por la legislación de la UE; asimismo aquellos incorporados en lista específica relativos a algunos sistemas que trabajen con datos biométricos; infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicas esenciales; fuerzas y cuerpos de seguridad; gestión de la migración, el asilo y el control de fronteras; y sobre la administración de justicia y procesos democráticos.
Requisitos alto riesgo
Según la ley los proveedores de IA de alto riesgo deben cumplir un conjunto de normas: a) establecer un sistema de gestión de riesgos a lo largo del ciclo de vida del sistema de IA de alto riesgo; b) llevar a cabo la gobernanza de los datos, garantizando que los conjuntos de datos de formación, validación y prueba sean pertinentes, suficientemente representativos y, en la medida de lo posible, estén libres de errores y completos de acuerdo con la finalidad prevista.
Luego, c) elaborar documentación técnica para demostrar la conformidad y facilitar a las autoridades la información necesaria para evaluar dicha conformidad; d) diseñar su sistema de IA de alto riesgo para que pueda registrar automáticamente los eventos relevantes para identificar los riesgos a nivel nacional y las modificaciones sustanciales a lo largo del ciclo de vida del sistema; e) proporcionar instrucciones de uso a los encargados de la implantación posterior para permitir el cumplimiento por parte de estos últimos.
Por último, f) diseñar su sistema para permitir a los desplegadores aplicar la supervisión humana; g) diseñar su sistema para alcanzar los niveles adecuados de precisión, solidez y ciberseguridad; h) establecer un sistema de gestión de la calidad para garantizar el cumplimiento.
Gobernanza
De acuerdo con la ley se creará la Oficina Europea de AI, dependiente de la CE, para supervisar la aplicación efectiva y el cumplimiento de las normas establecidas juntamente con los gobiernos nacionales que la aplicarán. Asimismo, se creará el Consejo Europeo de IA que estará compuesto por un representante de cada Estado miembro. El Supervisor Europeo de Protección de Datos participará en calidad de observador. El Consejo asesorará y asistirá a la CE y a los Estados miembros para facilitar la aplicación coherente y eficaz de la ley.
La Oficina de AI también asistirá a las reuniones del Consejo sin tomar parte en las votaciones. El Consejo podrá invitar a las reuniones, caso por caso, a otras autoridades, organismos o expertos nacionales y de la Unión, cuando las cuestiones debatidas sean pertinentes para ellos.
El Consejo establecerá dos subgrupos permanentes para proporcionar una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y las autoridades notificantes sobre cuestiones relacionadas con la vigilancia del mercado y los organismos notificados, respectivamente.
Evaluación y revisión
La CE evaluará la necesidad de modificar la lista de prácticas de IA prohibidas y de alto riesgo una vez al año tras la entrada en vigor de la ley y hasta el final del periodo de delegación de poderes. La CE presentará los resultados de dicha evaluación al Parlamento Europeo y al Consejo.
A más tardar tres años después de la fecha de aplicación de la presente ley, y posteriormente cada cuatro años, la CE presentará al Parlamento Europeo y al Consejo un informe sobre la evaluación y revisión de la ley. Dicho informe incluirá una evaluación de la estructura de la aplicación y de la posible necesidad de crear una agencia de la Unión para resolver las deficiencias detectadas. Por último, se establecen otras fechas para ir actualizando y mejorando diferentes aspectos particulares de la norma.