El uso militar de la tecnología para el combate viene creciendo y ahora un funcionario de defensa de Estados Unidos reveló que han utilizado inteligencia artificial (IA) para identificar objetivos alcanzados por ataques aéreos en Medio Oriente este mes.
Los algoritmos de aprendizaje automático, que pueden aprender a identificar objetos, ayudaron a delimitar los objetivos de más de 85 ataques aéreos estadounidenses el 2 de febrero, según Schuyler Moore, director de tecnología del Comando Central de Estados Unidos, que dirige las operaciones militares estadounidenses en Medio Oriente. El Pentágono dijo que esos ataques fueron realizados por bombarderos y aviones de combate estadounidenses contra siete instalaciones en Irak y Siria.
“Hemos estado utilizando visión por computadora para identificar dónde podría haber amenazas”, dijo Moore en una entrevista con Bloomberg News. “Ciertamente hemos tenido más oportunidades de atacar en los últimos 60 a 90 días”, señaló y añadió que Estados Unidos actualmente está buscando “una enorme cantidad” de lanzacohetes de fuerzas hostiles en la región.
El Ejército ha reconocido previamente el uso de algoritmos de visión por computadora con fines de inteligencia. Pero los comentarios de Moore representan la confirmación más sólida de dominio público de que Estados Unidos está utilizando la tecnología para identificar objetivos enemigos que posteriormente son alcanzados por el fuego de las armas.
Los ataques estadounidenses, que según el Pentágono destruyeron o dañaron cohetes, misiles, almacenamiento de drones y centros de operaciones de milicias, entre otros objetivos, fueron parte de la respuesta del Gobierno de Biden a la muerte de tres miembros del servicio estadounidense en un ataque perpetrado el 28 de enero contra una base en Jordania. Estados Unidos atribuyó el ataque a las milicias respaldadas por Irán.
Moore dijo que los sistemas de inteligencia artificial también han ayudado a identificar lanzadores de cohetes en Yemen y buques de superficie en el mar Rojo, varios de los cuales el Comando Central, o Centcom, dijo haber destruido en múltiples ataques con armas durante febrero. Las milicias hutíes apoyadas por Irán en Yemen han atacado repetidamente con cohetes a barcos comerciales que transitan por el mar Rojo.
LEA TAMBIÉN: Economía palestina de Cisjordania se enfrenta al colapso tras meses de guerra en Gaza
Proyecto Maven
Los algoritmos de orientación se desarrollaron en el marco del Proyecto Maven, una iniciativa del Pentágono iniciada en 2017 para acelerar la adopción de la IA y el aprendizaje automático en todo el Departamento de Defensa y para apoyar la inteligencia de defensa con énfasis en los prototipos para la lucha que en ese momento EE.UU. sostenía contra militantes del Estado Islámico.
Moore, que trabaja en la sede de Centcom en Tampa, Florida, dijo que las fuerzas estadounidenses en Medio Oriente han experimentado con algoritmos de visión por computadora que pueden localizar e identificar objetivos a partir de imágenes capturadas por satélite y otras fuentes de datos, los que fueron probados en ejercicios durante el año pasado.
Luego comenzaron a usarlos en operaciones reales después del ataque del 7 de octubre por Hamás contra Israel y la acción militar de represalia que siguió en Gaza, que avivó las tensiones regionales y los ataques de militantes respaldados por Irán.
“El 7 de octubre todo cambió”, dijo Moore. “Inmediatamente aceleramos la marcha a toda velocidad y a un ritmo operativo mucho más alto que el que teníamos anteriormente”, dijo, y agregó que las fuerzas estadounidenses pudieron hacer “un cambio bastante fluido” hacia el uso de Maven después de un año de ejercicios digitales.
Moore enfatizó que las capacidades de IA de Maven se están utilizando para ayudar a encontrar objetivos potenciales, pero no para verificar o desplegar armas contra ellos. Dijo que los ejercicios de finales del año pasado, en los que Centcom experimentó con un motor de recomendación de IA, mostraron que tales sistemas con frecuencia requerían de la interacción de un humano para proponer el orden de ataque o la mejor arma a usar.
Es por esto que humanos revisan constantemente las recomendaciones de orientación de la IA, dijo. Los operadores estadounidenses se toman en serio sus responsabilidades y el riesgo de que la IA pueda cometer errores, aseveró y “tiende a ser bastante obvio cuando algo anda mal”.
“Nunca existe un algoritmo que simplemente se ejecuta, llega a una conclusión y luego pasa al siguiente paso”, explicó. “Cada paso que involucra a la IA tiene un control humano al final”.
(Con información de la agencia Bloomberg).
Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.