Por Lisa Jarvis
La inteligencia artificial (IA) se ha convertido en una de las palabras de moda de la biotecnología. No ha faltado el flujo de capital de riesgo y financiación pública hacia empresas que utilizan el aprendizaje automático para acelerar la búsqueda y la producción de nuevos medicamentos.
Ahora, un equipo de investigadores hizo sonar la alarma sobre la posibilidad de que esta tecnología de inteligencia artificial se utilice para cometer crímenes —más preocupante aún, para descubrir nuevas armas químicas más escalofriantes—.
Los desarrolladores de fármacos utilizan la IA para crear miles, incluso millones de moléculas que podrían interactuar con objetivos biológicos específicos. Pero los investigadores también hallaron que el mismo software se puede usar igualmente para tratar de identificar gases o polvos venenosos. De repente, el campo de la biotecnología se preocupa, tanto por los peligros ocultos de la IA como por la posibilidad de potenciarlos.
El riesgo inmediato real es probablemente mínimo. Pero el nuevo debate sobre la posibilidad de que la IA biotecnológica pueda usarse con fines nefastos destaca la necesidad de monitorear la rápida evolución de las tecnologías de aprendizaje automático. No es demasiado pronto para que los desarrolladores de fármacos y los reguladores gubernamentales sopesen las consecuencias no deseadas de los avances futuros.
El tema surgió el año pasado, cuando el Instituto Federal Suizo para la Protección de NBC (nuclear, biológico, químico) pidió a una pequeña empresa de biotecnología de Carolina del Norte llamada Collaborations Pharmaceuticals que informara en una conferencia bianual sobre el posible uso indebido de las tecnologías de IA.
Los investigadores de la compañía estudiaron la cuestión reutilizando un modelo de aprendizaje automático que habían diseñado para generar series de moléculas con el potencial de actuar sobre los objetivos de los fármacos.
El modelo califica las moléculas en función de varias propiedades, degradando aquellas con características que se sabe que causan efectos secundarios tóxicos y dando preferencia a aquellas que podrían tener un efecto terapéutico.
Cuando los investigadores entrenaron su modelo para identificar moléculas que se parecen al agente nervioso VX, identificó rápidamente decenas de miles de ellas, incluidas muchas que parecían mucho más perjudiciales.
Enfocar el modelo en hacer el mal en lugar del bien fue tan fácil como cambiar un 1 por un 0 y, por lo tanto, orientarlo para diseñar y dar preferencia a las moléculas con efectos tóxicos, explica Sean Ekins, director ejecutivo de Collaborations Pharmaceuticals.
No se requería un servidor potente para la computación. Todo el proyecto se realizó en seis horas en un Mac de escritorio viejo, usando un software diseñado para el uso de bases de datos de moléculas disponibles públicamente.
Lo que es alarmante es la facilidad con la que el modelo de IA podría modificarse para causar daño. Pero es más tranquilizadora la baja probabilidad de que la IA diseñada para el descubrimiento de fármacos sea reutilizada próximamente para estos fines.
Consideremos que, hasta ahora, la tecnología no ha sido tan efectiva en la generación de nuevos medicamentos. Los computadores son muy buenos para identificar nuevas formas de usar las clases de medicamentos existentes, pero aún no han demostrado que beneficien la invención de fármacos nuevos. El ingenio humano todavía guía ese nivel de investigación.
Esto significa que, al menos por ahora, es poco probable que los computadores produzcan tipos completamente nuevos de armas químicas. La máquina simplemente produce ideas. Se necesita más trabajo para comprender el potencial perjudicial de las moléculas individuales; se deberían crear y probar (un ejercicio poco ético).
Y para cualquier actor interesado y con malas intenciones, esos próximos pasos probablemente no valgan la pena, según Derek Lowe, químico médico que escribe para el blog farmacéutico de la revista Science. “No estoy seguro de que alguien necesite el despliegue de un nuevo compuesto para causar estragos; pueden ahorrarse muchos problemas simplemente haciendo sarín o VX, Dios no quiera”, escribió.
Y aunque los computadores permiten a los científicos descubrir nuevas moléculas aparentemente infinitas, aún no pueden predecir cómo se comportarán dentro de un cuerpo humano. Eso todavía requiere una prueba y error a la antigua.
No obstante, el proyecto apunta a otros aspectos del uso de la IA en el desarrollo de fármacos que merecen una mayor atención. Un riesgo más apremiante, por ejemplo, podría ser el uso de IA en la fabricación de armas biológicas. Hace una década, investigadores de la Universidad Northwestern demostraron que es posible usar un algoritmo para encontrar formas alternativas de producir sarín y gas mostaza utilizando sustancias de partida no reguladas.
Y aunque el equipo de Collaborations Pharmaceuticals se centró en las armas químicas, los modelos como el suyo también podrían reutilizarse para crear nuevas drogas ilícitas que sean potentes, peligrosas y difíciles de detectar. El aprendizaje automático también podría hacer posible la síntesis rápida de tales drogas.
Anteriormente este año, Rand Corp señaló el potencial de que la IA se utilice para generar nuevos opioides sintéticos y análogos de fentanilo.
Investigadores académicos que crean herramientas de IA para el desarrollo de fármacos quieren que estén disponibles gratuitamente. Pero a medida que estas herramientas se vuelven más refinadas y efectivas y que el límite para usarlas es cada vez más bajo, existe una mayor necesidad de pensar en otras formas en las que podrían usarse.
Algunos modelos de IA están disponibles no solo bajo “acceso abierto” sino también bajo “código abierto”, lo que significa que cualquiera puede realizar pequeños cambios en el código que podrían aumentar el potencial de daño. Sería prudente limitar algunos modelos solo al acceso abierto, como ha sugerido el profesor del MIT Connor Coley.
Ya está disponible públicamente una gran cantidad de información sobre el aprendizaje automático en el desarrollo de fármacos, y no será posible cerrar por completo la caja de Pandora. No hay necesidad de entrar en pánico. Pero el público debe ser consciente de los riesgos. Y las empresas de biotecnología, los investigadores académicos y las agencias gubernamentales involucradas en el monitoreo de armas químicas y biológicas deben tener discusiones más abiertas sobre esos riesgos ahora.