Considere dos enfoques para la inteligencia artificial (IA) en la industria de la música. Uno es el de Giles Martin, hijo de Sir George Martin, productor de los Beatles. El año pasado, para remezclar el álbum de los ‘Fab Four’ de 1966, “Revolver”, usó IA para aprender el sonido de los instrumentos de cada miembro de la banda (por ejemplo, la guitarra de John Lennon) a partir de una cinta maestra mono para poder separarlos y convertirlos en estéreo mediante ingeniería inversa. El resultado es glorioso.
El otro enfoque tampoco es malo. Es la respuesta de Nick Cave, un malhumorado cantautor australiano, al revisar letras escritas en su estilo por ChatGPT, una herramienta de IA desarrollada por una startup llamada OpenAI. “Esta canción apesta”, escribió. “Escribir una buena canción no es mimetismo, ni réplica, ni pastiche, es todo lo contrario. Es un acto de autosuicidio que destruye todo lo que uno se ha esforzado por producir en el pasado”.
Es poco probable que Cave quede impresionado por la última versión del algoritmo detrás de ChatGPT, denominado GPT-4, que OpenAI presentó el 14 de marzo. Martin puede encontrarlo útil. Michael Nash, director digital de Universal Music Group, el sello discográfico más grande del mundo, cita sus ejemplos como evidencia tanto del entusiasmo como del miedo sobre la IA detrás de aplicaciones de creación de contenido como ChatGPT (para texto) o Stable Diffusion (para imágenes). Podría ayudar al proceso creativo.
También podría destruirlo o usurparlo. Sin embargo, para la música grabada en general, la llegada de los bots trae a la mente un evento sísmico en su historia: el rápido ascenso y caída de Napster, una plataforma para compartir principalmente canciones pirateadas en el cambio de milenio. Napster finalmente fue derribado por la ley de derechos de autor. Para los proveedores de bots agresivos acusados de pisotear la propiedad intelectual (PI), Nash tiene un mensaje simple que suena como una amenaza, viniendo de un veterano de la industria musical de la era de Napster. “No te despliegues en el mercado y pidas perdón. Ese es el enfoque de Napster”.
El problema principal aquí no son las parodias de Cave hechas con IA o los falsos sonetos de Shakespeare. Son los océanos de datos protegidos por derechos de autor que los bots han desviado mientras se entrenaban para crear contenido humano. Esa información proviene de todas partes: fuentes de redes sociales, búsquedas en Internet, bibliotecas digitales, televisión, radio, bancos de estadísticas, etc. A menudo, se alega, los modelos de inteligencia artificial saquean las bases de datos sin permiso. Los responsables del material fuente se quejan de que su trabajo es aspirado sin consentimiento, crédito o compensación. En resumen, algunas plataformas de IA pueden estar haciendo con otros medios lo que Napster hizo con las canciones: ignorar por completo los derechos de autor. Las demandas han comenzado a volar.
Es un campo minado legal con implicaciones que se extienden más allá de las industrias creativas a cualquier negocio en el que el aprendizaje automático desempeñe un papel, como los automóviles autónomos, los diagnósticos médicos, la robótica industrial y la gestión de riesgos de seguros. La Unión Europea, fiel a la forma burocrática, tiene una directiva sobre derechos de autor que se refiere a la minería de datos (escrita antes del reciente auge de los bots).
Los expertos dicen que Estados Unidos carece de antecedentes específicos de IA generativa. En cambio, tiene teorías en competencia sobre si la extracción de datos sin licencias está permitida o no bajo la doctrina del “uso justo”. Napster también intentó implementar el “uso justo” como defensa en Estados Unidos, y fracasó. Eso no quiere decir que el resultado será el mismo esta vez.
Los principales argumentos en torno al “uso justo” son fascinantes. Para tomar prestado de una clase magistral sobre el tema de Mark Lemley y Bryan Casey en Texas Law Review, una revista, el uso de obras protegidas por derechos de autor se considera justo cuando cumple un propósito social valioso, el material de origen se transforma del original y no afecta el mercado principal de los propietarios de los derechos de autor.
Los críticos argumentan que las IA no transforman sino que explotan la totalidad de las bases de datos que extraen. Afirman que las empresas detrás del aprendizaje automático abusan del uso justo para “viajar gratis” sobre el trabajo de las personas. Y afirman que esto amenaza el sustento de los creadores, así como el de la sociedad en general, si la inteligencia artificial promueve la vigilancia masiva y la difusión de información errónea.
Los autores sopesan estos argumentos contra el hecho de que cuanto más acceso haya a los conjuntos de entrenamiento, mejor será la IA, y que sin ese acceso puede que no haya ninguna IA. En otras palabras, la industria podría morir en su infancia. Lo describen como una de las cuestiones legales más importantes del siglo: “¿Permitirá la ley de derechos de autor que los robots aprendan?”
Una de las primeras demandas que llama la atención es de Getty Images. La agencia de fotografía acusa a Stability AI, propietaria de Stable Diffusion, de infringir sus derechos de autor sobre millones de fotos de su colección con el fin de construir un modelo de IA generadora de imágenes que competirá con Getty. Siempre que el caso no se resuelva fuera de los tribunales, podría sentar un precedente sobre el uso justo. Un veredicto aún más importante podría llegar pronto de la Corte Suprema de Estados Unidos en un caso relacionado con la transformación de imágenes con derechos de autor de Prince, un ídolo del pop, por Andy Warhol, un artista. Daniel Gervais, un experto en PI de la Facultad de Derecho de Vanderbilt en Nashville, cree que los jueces pueden brindar una guía largamente esperada sobre el uso justo en general.
Extraer datos protegidos por derechos de autor no es el único problema legal al que se enfrenta la IA generativa. En muchas jurisdicciones, los derechos de autor se aplican solo al trabajo creado por humanos, por lo tanto, la medida en que los bots pueden reclamar protección de propiedad intelectual para el material que generan es otra área gris. Fuera de los tribunales, las preguntas más importantes serán políticas, incluso si la inteligencia artificial generativa debería o no disfrutar de las mismas protecciones de responsabilidad por el contenido que muestra como lo hacen las plataformas de redes sociales, y en qué medida pone en peligro la privacidad de los datos.
Sin embargo, la batalla de la propiedad intelectual será grande. Nash dice que las industrias creativas deberían tomar una posición rápidamente para garantizar que la producción de los artistas tenga licencia y se use éticamente en el entrenamiento de modelos de inteligencia artificial. Insta a las empresas de inteligencia artificial a “documentar y divulgar” sus fuentes. Pero es un equilibrio delicado, como reconoce. Los creativos no quieren sonar como enemigos del progreso. Muchos pueden beneficiarse de IA en su trabajo. La lección de la “terapia de la realidad” de Napster, como la llama Nash, es que es mejor involucrarse con las nuevas tecnologías que esperar que desaparezcan. Tal vez esta vez no se necesiten 15 años de ingresos desmoronados para aprenderlo.