Un ingeniero de software de Microsoft Corp. envió cartas a la junta directiva de la compañía, a los legisladores estadounidenses y a la Comisión Federal de Comercio (FTC) de ese país advirtiendo que el gigante tecnológico no está haciendo lo suficiente para proteger su herramienta de generación de imágenes de inteligencia artificial, Copilot Designer, de la creación de contenido abusivo y violento.
Shane Jones dijo que descubrió una vulnerabilidad de seguridad en el último modelo de generador de imágenes DALL-E de OpenAI que le permitió eludir las barreras que impiden que la herramienta cree imágenes dañinas. El modelo DALL-E está integrado en muchas de las herramientas de inteligencia artificial de Microsoft, incluido Copilot Designer.
Jones dijo que informó los hallazgos a Microsoft e “instó repetidamente” a la compañía con sede en Redmond, Washington, a “eliminar Copilot Designer del uso público hasta que se pudieran implementar mejores salvaguardias”, según una carta enviada a la FTC el miércoles y que fue revisado por Bloomberg.
“Si bien Microsoft comercializa públicamente Copilot Designer como un producto de inteligencia artificial seguro para que lo utilicen todos, incluidos niños de cualquier edad, internamente la empresa es muy consciente de los problemas sistémicos en los que el producto crea imágenes dañinas que podrían ser ofensivas e inapropiadas para los consumidores”, Jones escribió. “Microsoft Copilot Designer no incluye las advertencias o divulgaciones necesarias sobre el producto para que los consumidores sean conscientes de estos riesgos”.
En la carta a la FTC, Jones dijo que Copilot Designer tenía una tendencia a generar aleatoriamente una “imagen inapropiada y sexualmente objetivada de una mujer en algunas de las imágenes que crea”.
También dijo que la herramienta de inteligencia artificial creó “contenido dañino en una variedad de otras categorías que incluyen: prejuicios políticos, consumo de alcohol y drogas entre menores de edad, uso indebido de marcas comerciales y derechos de autor corporativos, teorías de conspiración y religión, por nombrar algunos”.
LEA TAMBIÉN: Amazon Web Services Perú se expande de “la nube” hacia el negocio de la IA generativa
La FTC confirmó que recibió la carta pero se negó a hacer más comentarios.
La andanada refleja las crecientes preocupaciones sobre la tendencia de las herramientas de inteligencia artificial a generar contenido dañino. La semana pasada, Microsoft dijo que estaba investigando informes de que su chatbot Copilot estaba generando respuestas que los usuarios llamaban perturbadoras, incluidos mensajes contradictorios sobre el suicidio. En febrero, Gemini, el producto estrella de inteligencia artificial de Alphabet Inc., fue criticado por generar escenas históricamente inexactas cuando se le pedía que creara imágenes de personas.
Jones también escribió al Comité Ambiental, Social y de Política Pública de la junta directiva de Microsoft, que incluye a Penny Pritzker y Reid Hoffman como miembros.
“No creo que debamos esperar a que la regulación gubernamental garantice que somos transparentes con los consumidores sobre los riesgos de la IA”, dijo Jones en la carta. “Teniendo en cuenta nuestros valores corporativos, deberíamos revelar de forma voluntaria y transparente los riesgos conocidos de la IA, especialmente cuando el producto de IA se comercializa activamente para niños”.
CNBC informó anteriormente sobre la existencia de las cartas.
En un comunicado, Microsoft dijo que está “comprometido a abordar todas y cada una de las inquietudes que tengan los empleados de acuerdo con las políticas de nuestra empresa, y aprecia los esfuerzos de los empleados para estudiar y probar nuestra última tecnología para mejorar aún más su seguridad”.
OpenAI no respondió a una solicitud de comentarios.
Jones dijo que expresó sus preocupaciones a la compañía varias veces durante los últimos tres meses. En enero, escribió a los senadores demócratas Patty Murray y Maria Cantwell, que representan al estado de Washington, y al representante de la Cámara de Representantes, Adam Smith.
En una carta, pidió a los legisladores que investigaran los riesgos de “las tecnologías de generación de imágenes de IA y el gobierno corporativo y las prácticas responsables de IA de las empresas que construyen y comercializan estos productos”.
Los legisladores no respondieron de inmediato a las solicitudes de comentarios.
LEA TAMBIÉN: China emprende cruzada nacional por supremacía tecnológica frente a EE.UU.
Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.