La enorme popularidad de las herramientas de inteligencia artificial, como ChatGPT, de OpenAI, respaldada por Microsoft Corp, ha llevado a los reguladores estadounidenses y europeos a intensificar el escrutinio de su uso.
La enorme popularidad de las herramientas de inteligencia artificial, como ChatGPT, de OpenAI, respaldada por Microsoft Corp, ha llevado a los reguladores estadounidenses y europeos a intensificar el escrutinio de su uso.

Las autoridades estadounidenses advirtieron el martes a las empresas financieras y a otras firmas que el uso de la(IA) puede aumentar el riesgo de parcialidad y de violaciones de los derechos civiles, y señalaron que están vigilando los mercados para detectar este tipo de discriminación.

La creciente dependencia de los sistemas automatizados en sectores como los préstamos, el empleo y la vivienda amenaza con exacerbar la discriminación por motivos de raza, discapacidad y otros factores, dijeron los jefes de la Oficina de Protección Financiera del Consumidor, la unidad de derechos civiles del Departamento de Justicia, la Comisión Federal de Comercio y otros.

La enorme popularidad de las herramientas de inteligencia artificial, como , de OpenAI, respaldada por , ha llevado a los reguladores estadounidenses y europeos a intensificar el escrutinio de su uso y ha suscitado peticiones de nuevas leyes para frenar la tecnología.

LEA TAMBIÉN: Cómo la IA puede ayudar a impedir la próxima crisis sanitaria mundial

Los reclamos de innovación no deben servir de tapadera para infringir la ley”, declaró a la prensa Lina Khan, presidenta de la Comisión Federal de Comercio.

Rohit Chopra, director de la Oficina de Protección Financiera del Consumidor, declaró que la Oficina está tratando de llegar a los denunciantes del sector tecnológico para determinar en qué casos las nuevas tecnologías infringen las leyes de derechos civiles.

LEA TAMBIÉN: ¿Cumple ChatGPT con la protección de datos? Hay motivos para la incertidumbre

En el sector financiero, las empresas están obligadas por ley a explicar las decisiones crediticias adversas. Si las empresas ni siquiera entienden las razones de las decisiones que toma su IA, no pueden utilizarla legalmente, dijo Chopra.

De lo que estamos hablando aquí es a menudo del uso de cantidades gigantescas de datos y el desarrollo de correlaciones y otros análisis para generar contenido y tomar decisiones”, dijo Chopra. “Lo que estamos diciendo aquí es que hay una responsabilidad que se tiene por esas decisiones”.

Fuente: Reuters

LEA TAMBIÉN: ¿Qué es la “caja negra” en la inteligencia artificial y por qué preocupa al mundo?
¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de descuento en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí ¿Aún no eres suscriptor?, adquiere tu plan aquí.