Este acuerdo busca mitigar riesgos como la desinformación, ciberataques y el uso indebido de la IA. Foto: EFE
Este acuerdo busca mitigar riesgos como la desinformación, ciberataques y el uso indebido de la IA. Foto: EFE

La Casa Blanca informó el viernes que se sumó a más de una decena de compañías tecnológicas que se comprometieron a cumplir reglas que limiten los riesgos de la .

Amazon, Google, Microsoft y OpenAI son algunas de las empresas, rivales en el sector, que se unieron a las autoridades de Estados Unidos para realizar este pacto voluntario hace un año.

En la ocasión, la administración del presidente Joe Biden dijo que había logrado el compromiso de las compañías “para avanzar hacia un desarrollo seguro y transparente de la ”.

LEA TAMBIÉN: Microsoft y Apple evitan participar en junta de OpenAI dado mayor escrutinio de EE.UU.

A inicios de junio, Apple lanzó Apple Intelligence, que busca optimizar el uso de IA generativa en los dispositivos de la empresa, como el Iphone y la Mac. También prevé una alianza con OpenAI, que permitirá que la aplicación ChatGPT pueda ser usada en sus teléfonos inteligentes a pedido del usuario.

La aplicación de la , que permite producir rápidamente imágenes, sonidos y videos con una simple demanda verbal, prevé importantes progresos en áreas como la medicina, pero genera temores sobre un aumento de la desinformación, la pérdida masiva de empleos o el robo de propiedad intelectual.

También enciende las alertas ante el posible uso de la IA por parte de regímenes autoritarios o de organizaciones criminales.

Las salvaguardas acordadas con las tecnológicas incluyen la simulación de ataques en modelos de IA, una técnica llamada “red teaming” que busca exponer posibles vulnerabilidades.

LEA TAMBIÉN: Apple alcanza nuevo récord tras mejora de recomendación de Morgan Stanley

Según la Casa Blanca, los modelos o sistemas de deben incluir riesgos para la sociedad y de seguridad nacional, así como ciberataques y el desarrollo de armas biológicas.

El compromiso suscrito también prevé que las empresas compartan información entre ellas y con el gobierno sobre los riesgos de la IA y de tentativas de burlar las defensas.

A finales del año pasado, Biden firmó una orden ejecutiva estableciendo nuevos estándares de seguridad para los sistemas de IA y exigiendo que los desarrolladores compartan los resultados de sus pruebas de seguridad con el gobierno estadounidense.

La Casa Blanca indicó que la orden ejecutiva incluía la mayor serie de acciones “nunca antes adoptada para proteger a los estadounidenses del riesgo potencial de los .

Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.