Microsoft dijo el miércoles que adversarios de Estados Unidos —principalmente Irán y Corea del Norte y, en menor medida, Rusia y China— están comenzando a utilizar inteligencia artificial generativa para montar u organizar operaciones cibernéticas ofensivas.
El gigante tecnológico dijo que detectó e interrumpió, en colaboración con su socio comercial OpenAI, amenazas que utilizaban o intentaban explotar la tecnología de inteligencia artificial que ellos desarrollaron.
En un blog, la compañía de Redmond, Washington, dijo que las técnicas estaban en “etapa inicial” y no eran “particularmente novedosas o únicas”, pero que era importante exponerlas públicamente a medida que los rivales de Estados Unidos aprovechan los modelos de lenguaje de gran tamaño para expandir su capacidad de infiltrarse en redes y realizar operaciones de influencia.
LEA TAMBIÉN: Gigantes de la IA alistan pacto para combatir “deepfakes” de políticos
Las empresas de ciberseguridad llevan mucho tiempo utilizando el aprendizaje automático en defensa, principalmente para detectar comportamientos anómalos en las redes. Pero los delincuentes y hackers también lo utilizan, y la introducción de modelos de lenguaje grande liderados por ChatGPT de OpenAI incrementó ese juego del gato y el ratón.
Microsoft ha invertido miles de millones de dólares en OpenAI, y el anuncio del miércoles coincidió con la publicación de un informe que señala que se espera que la inteligencia artificial generativa incremente la ingeniería social maliciosa, lo que conducirá a deepfakes (resultados hiperreales) y clonación de voz más sofisticados. Una amenaza a la democracia en un año en el que más de 50 países celebrarán elecciones, magnificando la desinformación y que ya está ocurriendo.
LEA TAMBIÉN: El futuro de los smartphones con IA incorporado: lo que se podrá crear sin tener apps
Uno de los ejemplos proporcionados por Microsoft es el grupo de ciberespionaje norcoreano conocido como Kimsuky, el cual ha utilizado los modelos para investigar a centros de análisis extranjeros y generar contenido que probablemente se utilice en campañas de hackeo.
Otro caso es la unidad de la inteligencia militar rusa GRU conocida como Fancy Bear, la cual ha utilizado la inteligencia artificial para investigar tecnologías de satélites y radares que pueden estar relacionadas con la guerra en Ucrania.
El miércoles, en otro blog, OpenAI dijo que su actual chatbot modelo GPT-4 ofrece “sólo capacidades incrementales limitadas para tareas de ciberseguridad maliciosas más allá de lo que ya se puede lograr con herramientas disponibles públicamente y sin tecnología de IA”.
Los investigadores de ciberseguridad esperan que eso cambie.