El creciente uso de inteligencia artificial en operaciones militares reabre el debate sobre los riesgos de errores en la identificación de objetivos y sus posibles consecuencias para la población civil. Foto: EFE.
El creciente uso de inteligencia artificial en operaciones militares reabre el debate sobre los riesgos de errores en la identificación de objetivos y sus posibles consecuencias para la población civil. Foto: EFE.

Reportes sobre un mayor uso de sistemas avanzados de por parte de e Israel en la ofensiva han encendido alertas respecto a cómo estas tecnologías podrían estar acelerando la identificación de objetivos y la ejecución de ataques, así como los riesgos de que eventuales fallas algorítmicas deriven en tragedias para la población civil.

De acuerdo con medios estadounidenses, el permitió que durante las primeras 48 horas de la operación en Irán se atacaran más de un millar de objetivos. Entre ellos figuró el bombardeo en cadena que terminó con la muerte del líder supremo iraní, Alí Jameneí, una acción que en conflictos anteriores habría tomado varios días.

“Desde la identificación de objetivos y la obtención de la aprobación legal hasta la ejecución de los ataques, la IA está acelerando la toma de decisiones en todos los niveles”, señaló la revista británica AI.

LEA TAMBIÉN: España desmiente a la Casa Blanca y niega haber acordado cooperar con EE.UU. contra Irán

Su uso en Irán

El proyecto Maven —la iniciativa de “guerra algorítmica” del Pentágono, actualmente bajo la Agencia Nacional de Inteligencia Geoespacial— utiliza inteligencia artificial para analizar imágenes de drones y satélites, detectar posibles objetivos y marcarlos en mapas. De esta forma, los mandos militares reciben listas de blancos generadas por algoritmos que, según el Departamento de Defensa, posteriormente son revisadas por personal humano.

Medios como The Washington Post, citando a tres fuentes familiarizadas con el sistema, indican que esta herramienta habría sido utilizada en la operación contra Irán.

No obstante, su uso no sería nuevo. Maven y sistemas similares han sido probados anteriormente en escenarios como Siria, Irak, Yemen, el mar Rojo y, más recientemente, Ucrania.

A su vez, portavoces militares de Israel han reconocido que emplean sistemas de inteligencia artificial y análisis avanzado de datos para apoyar la identificación y priorización de objetivos en Gaza.

El creciente uso de inteligencia artificial en operaciones militares reabre el debate sobre los riesgos de errores en la identificación de objetivos y sus posibles consecuencias para la población civil. Foto: EFE.
El creciente uso de inteligencia artificial en operaciones militares reabre el debate sobre los riesgos de errores en la identificación de objetivos y sus posibles consecuencias para la población civil. Foto: EFE.

El uso de Anthropic en los ataques

El relator de la ONU Balakrishnan Rajagopal cuestionó este jueves “las nuevas formas en que se están librando las guerras” y sostuvo que en la ofensiva contra Irán “una plataforma de IA fue utilizada para seleccionar objetivos y coordenadas geográficas”, lo que, a su juicio, acelera significativamente la ejecución de ataques.

“Vimos algo similar en los primeros meses del conflicto en Gaza”, afirmó.

La cadena CBS News, citando fuentes del propio Pentágono, también indicó que el ejército estadounidense empleó el modelo Claude, desarrollado por la firma de inteligencia artificial Anthropic, durante el ataque contra Irán y que continuaría utilizándolo pese a la orden del presidente Donald Trump de prohibir el uso de esta tecnología en toda la administración federal horas antes de iniciarse la ofensiva.

El diario The Wall Street Journal fue el primero en informar sobre este uso, que estaría enfocado en labores de análisis de inteligencia, identificación de objetivos y simulación de escenarios de combate.

LEA TAMBIÉN: Irán dice estar listo para una “guerra muy larga” y alega tener “armas más efectivas”

Debate por posibles blancos civiles

En este contexto, reportes sobre el ataque a una escuela infantil en Minab, al sur de Irán, donde habrían muerto cerca de 180 personas en el primer día de la guerra, han abierto un debate sobre si el objetivo pudo haber sido resultado de un error en la correlación de datos asociado al uso de inteligencia artificial.

Por otro lado, el analista iraní Trita Parsi señaló paralelismos entre los bombardeos en Gaza y los de Teherán, al sostener que Israel estaría utilizando sistemas de IA “sin supervisión humana”, lo que habría derivado en ataques a lugares como el Parque Policial de la capital iraní.

Según Parsi, el parque no está vinculado a instalaciones policiales y habría sido identificado como objetivo únicamente por contener en su nombre un término asociado al Estado, sin que posteriormente se verificara que se trataba de un espacio de recreación.

Con información de EFE.

TE PUEDE INTERESAR

Trump asegura que la caída del régimen cubano sería “la cereza del pastel”
Petróleo se dispara y bolsas vuelven a caer por impacto de la guerra en Oriente Medio
Guerra en Medio Oriente causa caos aéreo con más de 20,000 vuelos cancelados

Estimado(a) lector(a)

En Gestión, valoramos profundamente la labor periodística que realizamos para mantenerlos informados. Por ello, les recordamos que no está permitido, reproducir, comercializar, distribuir, copiar total o parcialmente los contenidos que publicamos en nuestra web, sin autorizacion previa y expresa de Empresa Editora El Comercio S.A.

En su lugar, los invitamos a compartir el enlace de nuestras publicaciones, para que más personas puedan acceder a información veraz y de calidad directamente desde nuestra fuente oficial.

Asimismo, pueden suscribirse y disfrutar de todo el contenido exclusivo que elaboramos para Uds.

Gracias por ayudarnos a proteger y valorar este esfuerzo.