OpenAI, la empresa que está detrás del chatbot ChatGPT, ha debatido la creación de un regulador independiente de la IA. (Foto: Bloomberg)
OpenAI, la empresa que está detrás del chatbot ChatGPT, ha debatido la creación de un regulador independiente de la IA. (Foto: Bloomberg)

Los legisladores de están debatiendo qué barreras poner a la floreciente pero meses después de que llamó la atención de, un consenso no es nada seguro.

Entrevistas con un senador estadounidense, personal del Congreso, empresas de y grupos de interés muestran que las opciones que se están debatiendo son varias.

El debate se aterrizará el martes, cuando Sam Altman, presidente ejecutivo de, comparezca por primera vez ante un panel del Senado.

Algunas propuestas se centran en la IA que puede poner en peligro la vida o el sustento de las personas, como en medicina y finanzas. Otras posibilidades incluyen normas para garantizar que la IA no se use para discriminar o violar los derechos civiles de alguien.

LEA TAMBIÉN: Otros usos de ChatGPT y sus consecuencias, ¿cuáles son?

Otra discusión es si se debe regular al desarrollador de la IA o a la empresa que la usa para interactuar con los consumidores. OpenAI, la empresa que está detrás del ChatGPT, ha debatido la creación de un regulador independiente de la IA.

No se sabe a ciencia cierta qué planteamientos triunfarán, pero algunos miembros de la comunidad empresarial, comoy la Cámara de Comercio de Estados Unidos, están a favor del planteamiento de que sólo se regule las áreas críticas como los diagnósticos médicos, lo que denominan una propuesta basada en el riesgo

Si el Congreso decide que son necesarias nuevas leyes, la Comisión de Inteligencia Artificial de la Cámara de Estados Unidos aboga por que “el riesgo se determine en función del impacto para las personas”, afirma Jordan Crenshaw, del Technology Engagement Center de la Cámara. “Una recomendación de vídeo puede no suponer un riesgo tan alto como las decisiones tomadas sobre la salud o las finanzas”.

La creciente popularidad de la llamada IA generativa, que usa datos para crear nuevos contenidos como la prosa semejante a la humana de ChatGPT, ha desatado la preocupación de que esta tecnología en rápida evolución pueda fomentar las trampas en los exámenes, alentar la desinformación y dar lugar a nuevos tipos de estafas.

El auge de la IA ha dado lugar a una serie de reuniones, como la visita a la Casa Blanca este mes de los presidentes ejecutivos de OpenAI, de su patrocinador Microsoft Corp y de Alphabet Inc, que se reunieron con el presidente Joe Biden. El Congreso está igualmente implicado, dicen sus asesores y expertos en tecnología.

“El personal de la Cámara de Representantes y del Senado ha despertado y se les ha pedido que se pongan manos a la obra”, afirma Jack Clark, cofundador de Anthropic, una startup de alto perfil dedicada a la IA, cuyo director general también asistió a la reunión de la Casa Blanca. “La gente quiere adelantarse a la IA, en parte porque sienten que no se adelantaron a las redes sociales”.

Mientras los legisladores se ponen al día, la principal prioridad de las grandes tecnológicas es presionar contra una “reacción prematura exagerada”, dijo Adam Kovacevich, jefe de la Cámara de Progreso, una grupo protecnología.

Y aunque legisladores como el líder de la mayoría en el Senado, Chuck Schumer, están decididos a abordar los problemas de la IA de forma bipartidista, lo cierto es que el Congreso está polarizado, las elecciones presidenciales son el año que viene y los legisladores están ocupados de otros grandes asuntos, como elevar el techo de la deuda.

El plan propuesto por Schumer exige que expertos independientes prueben las nuevas tecnologías de IA antes de su lanzamiento, además aboga por la transparencia y por proporcionar al Gobierno los datos que necesita para evitar daños.

Microgestión Gubernamental

El enfoque basado en el riesgo significa que la IA usada para diagnosticar el cáncer, por ejemplo, sería examinada por la Administración de Alimentos y Medicamentos, mientras que la IA para el entretenimiento no estaría regulada. La ha avanzado hacia la aprobación de normas parecidas.

Pero el senador demócrata Michael Bennet, que presentó un proyecto de ley para crear un grupo de trabajo gubernamental sobre IA, no considera suficiente centrarse en los riesgos. Aboga por un “enfoque basado en valores” para dar prioridad a la privacidad, las libertades civiles y los derechos.

Las normas basadas en el riesgo pueden ser demasiado rígidas y no detectar peligros como el uso de la IA para recomendar vídeos que promueven la supremacía blanca, añadió un asesor de Bennet.

Los legisladores también han debatido la mejor manera de garantizar que la IA no se use para discriminar racialmente, por ejemplo a la hora de decidir quién obtiene una hipoteca a bajo interés, según una persona al tanto de los debates en el Congreso que no está autorizada a hablar con los periodistas.

En OpenAI, el personal ha considerado una supervisión más amplia.

Cullen O’Keefe, investigador científico de OpenAI, propuso en una charla celebrada en abril en la Universidad de Stanford la creación de una agencia que obligue a las empresas a obtener licencias antes de entrenar potentes modelos de IA o poner en funcionamiento los centros de datos que los facilitan.

La agencia, según O’Keefe, podría llamarse Oficina para la Seguridad de la IA y la Infraestructura, u OASIS.

A la preguntada por la propuesta, Mira Murati, directora de tecnología de OpenAI, dijo que un organismo de confianza podría “responsabilizar” a los desarrolladores de las normas de seguridad, pero más importante que la mecánica era llegar a un acuerdo “sobre cuáles son las normas, cuáles son los riesgos que se intentan mitigar”.

El último gran regulador que se creó fue la Oficina de Protección Financiera del Consumidor, tras la crisis financiera de 2007-2008. Es posible que algunos republicanos se opongan a cualquier regulación de la IA.

“Debemos tener cuidado de que las propuestas de regulación de la IA no se conviertan en un mecanismo de microgestión gubernamental de códigos informáticos como los motores de búsqueda y los algoritmos”, dijo a Reuters un asesor republicano del Senado.

Fuente: Reuters

LEA TAMBIÉN: Por qué no debe seguir en trabajo remoto: consejos del CEO de IBM
¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de dscto. en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí ¿Aún no eres suscriptor?, adquiere tu plan aquí.