Las principales empresas de inteligencia artificial (IA), entre ellas OpenAI, Alphabet y Meta Platforms, se comprometieron voluntariamente con la Casa Blanca a aplicar medidas como una marca de agua en los contenidos para contribuir a que la tecnología sea más segura, informó el Gobierno de Estados Unidos.
“Estos compromisos son un paso prometedor, pero tenemos mucho más que hacer juntos”, dijo el presidente Joe Biden.
En un acto en la Casa Blanca, Biden abordó la creciente preocupación por la posibilidad de que la inteligencia artificial se use con fines perturbadores, afirmando que “debemos tener los ojos bien abiertos y estar atentos a las amenazas de las tecnologías emergentes” para la democracia estadounidense.
Las empresas -entre las que también se encuentran Anthropic, Inflection, Amazon.com y Microsoft, socio de OpenAI- se comprometieron a probar exhaustivamente los sistemas antes de lanzarlos al mercado y a compartir información sobre cómo reducir los riesgos e invertir en ciberseguridad.
El anuncio se considera una victoria para los esfuerzos del Gobierno de Biden por regular esta tecnología, que ha experimentado un auge de inversión y popularidad entre los consumidores.
LEA TAMBIÉN: Vocero de actores sobre la IA: “La sociedad debe despertar. Afecta a todos”
“Acogemos con satisfacción el liderazgo del presidente a la hora de reunir a la industria tecnológica para definir medidas concretas que ayuden a que la IA sea más segura y beneficiosa para el público”, señaló Microsoft en un blog el viernes.
Desde que la IA generativa, como ChatGPT, que utiliza datos para crear nuevos contenidos como prosa que parece humana, se hizo tremendamente popular este año, por lo que legisladores de todo el mundo han empezado a plantearse cómo mitigar los peligros de la tecnología emergente para la seguridad nacional y la economía.
En junio, Chuck Schumer, líder de la mayoría en el Senado de Estados Unidos, pidió una “legislación amplia” para avanzar y garantizar salvaguardias en materia de inteligencia artificial.
El Congreso está estudiando un proyecto de ley que obligaría a los anuncios políticos a revelar si se ha utilizado IA para crear imágenes u otros contenidos.
Estados Unidos va a la zaga de la UE en la regulación de la inteligencia artificial.
LEA TAMBIÉN: Uno de cada tres líderes de TI en la región duda que su compañía esté preparada para avances de IA
En junio, los legisladores de la UE aprobaron una serie de normas según las cuales sistemas como ChatGPT tendrían que revelar los contenidos generados por IA, ayudar a distinguir las denominadas imágenes ultrafalsas de las reales y garantizar salvaguardias contra los contenidos ilegales.
Como parte del esfuerzo, las siete empresas se comprometieron a desarrollar un sistema de “marca de agua” en todas las formas de contenido, desde texto, imágenes, audios hasta vídeos generados por IA, para que los usuarios sepan cuándo se ha utilizado la tecnología.
Esta marca de agua, incrustada en el contenido, presumiblemente facilitará a los usuarios la detección de imágenes o audios falsificados que puedan, por ejemplo, mostrar violencia que no se ha producido, crear una estafa o distorsionar una foto de un político para poner a la persona bajo una luz poco favorecedora.
No está claro cómo se hará evidente la marca de agua al compartir la información.
Las empresas también se comprometieron a proteger la privacidad de los usuarios a medida que se desarrolle la IA y a garantizar que la tecnología esté libre de prejuicios y no se utilice para discriminar a grupos vulnerables.
Otros compromisos incluyen el desarrollo de soluciones de IA para problemas científicos como la investigación médica y la mitigación del cambio climático.
Fuente: Reuters
LEA TAMBIÉN: Desde una app de salud hasta un robot submarino: cinco proyectos made in Perú