Los líderes de la industria tecnológica han manifestado su apoyo a la necesidad de regular la inteligencia artificial, pero también están ejerciendo una fuerte presión para garantizar que las nuevas normas les favorezcan.
Eso no significa que todos quieran lo mismo. Meta, matriz de Facebook, e IBM lanzaron el martes un nuevo grupo llamado AI Alliance, que defiende una postura de “ciencia abierta” para el desarrollo de la IA, lo que las pone en conflicto con las rivales Google, Microsoft y OpenAI, creadora de ChatGPT.
Estos dos bandos opuestos —el cerrado y el abierto— están en desacuerdo sobre si se debe construir la IA de forma que la tecnología subyacente sea ampliamente accesible. La seguridad está en el centro del debate, pero también quién puede sacar provecho de los avances de la IA.
LEA TAMBIÉN: Meta crea con IBM una red internacional para compartir su tecnología de IA
Los defensores del código abierto están a favor de un enfoque que “no sea patentado y cerrado”, afirma Darío Gil, vicepresidente senior de IBM que dirige su departamento de investigación. “Para que no sea algo que está encerrado en un barril y nadie sabe lo que es”.
¿Qué es la IA de código abierto?
El término “código abierto” deriva de una práctica de décadas de construcción de programas informáticos cuyo código es gratuito o ampliamente accesible para que cualquiera pueda examinarlo, modificarlo y desarrollarlo.
La IA de código abierto implica algo más que el código, y los informáticos discrepan sobre cómo definirla en función de qué componentes de la tecnología están a disposición del público y si existen restricciones que limiten su uso. Algunos utilizan el término “ciencia abierta” para describir una filosofía más amplia.
La AI Alliance —liderada por IBM y Meta y en el que participan Dell, Sony, los fabricantes de chips AMD e Intel y varias universidades y startups de IA— “se está organizando para plantear, en pocas palabras, que el futuro de la IA se va a construir fundamentalmente sobre el intercambio científico abierto de ideas y sobre la innovación abierta, incluido el código abierto y las tecnologías abiertas”, dijo Gil en una entrevista con The Associated Press antes de su presentación.
Parte de la confusión que existe acerca de la IA de código abierto se debe a que, a pesar de su nombre, OpenAI —la empresa detrás de ChatGPT y de DALL-E, la herramienta para crear imágenes—construye sistemas de IA que son decididamente cerrados.
“Para decir lo obvio, hay incentivos comerciales y a corto plazo contra el código abierto”, dijo Ilya Sutskever, científico jefe y cofundador de OpenAI, en una videoentrevista organizada por la Universidad de Stanford en abril. Pero también hay una preocupación a más largo plazo: la posibilidad de un sistema de IA con capacidades “alucinantemente potentes” que sería demasiado peligroso hacer accesibles al público.
Para ilustrar los peligros del código abierto, Sutskever planteó el ejemplo hipotético de un sistema de IA que aprenda a poner en marcha su propio laboratorio biológico.
¿Es peligrosa?
De acuerdo con David Evan Harris, investigador de la Universidad de California en Berkeley, hasta los modelos actuales de IA plantean riesgos y podrían ser utilizados, por ejemplo, para intensificar campañas de desinformación destinadas a alterar elecciones democráticas.
“El código abierto es realmente una maravilla en muchas dimensiones de la tecnología”, pero la IA es distinta, afirmó Harris.
“Cualquiera que haya visto la película ‘Oppenheimer’ sabe esto, que cuando se están haciendo grandes descubrimientos científicos, hay muchas razones para pensárselo dos veces a la hora de compartir ampliamente los detalles de toda esa información de forma que pueda llegar a manos equivocadas”, dijo.
El Center for Humane Technology, un viejo crítico de las prácticas de Meta en las redes sociales, está entre los grupos que llaman la atención sobre los riesgos de los modelos de IA de código abierto o filtrados.
“Mientras no existan salvaguardas, es totalmente irresponsable poner estos modelos a disposición del público”, afirma Camille Carlton, del grupo.
¿Está sembrando alarmismo?
Ha surgido un debate cada vez más público sobre las ventajas o los peligros de adoptar un enfoque de código abierto para el desarrollo de la IA.
Yann LeCun, científico jefe de IA de Meta, atacó este otoño en las redes sociales a OpenAI, Google y la startup Anthropic por lo que describió como un “cabildeo masivo de las empresas” para redactar las normas de forma que beneficien a sus modelos de IA de alto rendimiento y puedan concentrar su poder sobre el desarrollo de la tecnología. Las tres empresas, junto con Microsoft, socio clave de OpenAI, han formado su propio grupo industrial llamado Frontier Model Forum.
LeCun dijo en X, antes Twitter, que le preocupaba que el alarmismo de sus colegas científicos sobre los “escenarios catastrofistas” de la IA estuviera dando argumentos a quienes quieren prohibir la investigación y el desarrollo de código abierto.
“En un futuro en el que los sistemas de IA están a punto de constituir el repositorio de todo el conocimiento y la cultura humanos, necesitamos que las plataformas sean de código abierto y de libre acceso para que todo el mundo pueda contribuir a ellas”, escribió LeCun. “La apertura es la única forma de hacer que las plataformas de IA reflejen la totalidad del conocimiento y la cultura humanos”.
Para IBM, uno de los primeros defensores del sistema operativo Linux de código abierto en la década de 1990, la disputa se inscribe en una competición mucho más larga que precede al auge de la IA.
“Es una especie de enfoque clásico de captura reguladora para tratar de suscitar temores sobre la innovación de código abierto”, dijo Chris Padilla, que dirige el equipo de asuntos gubernamentales globales de IBM. “Quiero decir, este ha sido el modelo de Microsoft durante décadas, ¿verdad? Siempre se opusieron a los programas de código abierto que pudieran competir con Windows u Office. Aquí están adoptando una perspectiva similar”.
¿Qué están haciendo los gobiernos?
Fue fácil pasar por alto el debate sobre el “código abierto” en la discusión en torno a el extenso decreto del presidente Joe Biden sobre la IA.
En el decreto se describen los modelos abiertos con el nombre técnico de “modelos fundacionales de doble uso con ponderaciones ampliamente disponibles” y decía que necesitaban más estudio. Las ponderaciones son parámetros numéricos que influyen en el rendimiento de un modelo de IA.
Cuando esas ponderaciones se publican en internet, “puede haber beneficios sustanciales para la innovación, pero también riesgos sustanciales para la seguridad, como la eliminación de medidas de protección dentro del modelo”, dice la orden de Biden, quien dio de plazo hasta julio a la secretaria de Comercio de Estados Unidos, Gina Raimondo, para consultar a expertos y presentar recomendaciones sobre cómo gestionar los posibles beneficios y riesgos.
La Unión Europea tiene menos tiempo para resolverlo. En unas negociaciones que llegaron a su punto álgido el miércoles, los funcionarios que trabajan para ultimar la aprobación de una normativa global sobre IA siguen debatiendo una serie de disposiciones, entre ellas una que podría eximir a determinados “componentes de IA libres y de código abierto” de las normas que afectan a los modelos comerciales
LEA TAMBIÉN: Reservado, calculador: el director de OpenAI que trajo de vuelta al CEO Altman tras despedirlo