Un nuevo informe muestra tres formas en que la IA podría usarse para causar daño, de manera física, digital y política. (Foto: Reuters)
Un nuevo informe muestra tres formas en que la IA podría usarse para causar daño, de manera física, digital y política. (Foto: Reuters)

La (IA) podría mejorar drásticamente nuestras vidas y tener un gran impacto positivo en áreas que van desde la asistencia sanitaria hasta la seguridad, la gobernación y la economía. Pero casi todas las tecnologías se pueden usar tanto para mal como para bien.

El informe "Uso malicioso de la inteligencia artificial", compilado por expertos de varias instituciones, incluida la Universidad de Cambridge y la firma de investigación OpenAI, argumenta que, en las manos equivocadas, la IA podría ser explotada por estados corruptos, terroristas y criminales.

El informe describe tres áreas, física, digital y política, donde es más probable que se explote la IA, y describe cómo podrían suceder los ataques.

1. Accidentes automovilísticos a control remoto
La mayor preocupación es que la IA se utilice para realizar ataques físicos contra humanos, como piratear vehículos autónomos para causar colisiones.

"Si múltiples robots son controlados por un solo sistema de IA ejecutado en un servidor centralizado, o si múltiples robots son controlados por sistemas idénticos de IA y se les presentan los mismos estímulos, un solo ataque podría producir fallas simultáneas en una escala por lo demás inverosímil", sostiene el informe.

El profesor de la Universidad de Texas en Austin, Dr. Peter Stone, que es parte de un equipo que recientemente desarrolló un nuevo algoritmo para mejorar la forma en que los robots y los humanos se comunican, cree que las advertencias del informe deben tomarse en serio, pero que la situación no es nueva ni exclusiva de los vehículos autónomos.

"Si hoy alguien pusiera todas las luces de los semáforos simultáneamente en verde, se produciría un desastre", nos dice el Dr. Stone. "Y el hecho de que nuestra red eléctrica esté bastante centralizada nos hace vulnerables a los apagones en gran escala".

Según el Dr. Stone, la respuesta adecuada serían medidas de seguridad más fuertes, así como la redundancia (la provisión de capacidad de respaldo) y la descentralización de la toma de decisiones.

2. Suplantación de identidad sofisticada
En el futuro, los intentos de acceder a información personal y sensible de un individuo podrían ser llevados a cabo por IA casi en su totalidad.

"Estos ataques pueden usar sistemas de IA para completar ciertas tareas con más éxito que cualquier humano", dice el informe, y agrega que el fraude o el robo de identidad podrían volverse más refinados y efectivos a medida que la inteligencia artificial evoluciona.

Si la IA pudiera manejar la generación de mensajes e investigación típica para llevar a cabo una suplantación de identidad, habría muchas más personas engañadas por esta actividad.

La IA podría hacerse pasar por los contactos reales de las personas, imitando el estilo de escritura de esos contactos, lo que haría más difícil detectar el engaño.

El Profesor de Robótica en la Universidad Carnegie Mellon, Illah Nourbakhsh, dice que, dado que la IA evoluciona a gran velocidad, necesitamos respuestas más rápidas para enfrentar estos riesgos. "El verdadero desafío es considerar medidas políticas para maximizar lo bueno y minimizar lo malo", manifiesta Nourbakhsh.

"Del mismo modo que los estafadores humanos encuentran formas cada vez más sofisticadas de quitarles el dinero a las personas mediante engaños, habrá gente maliciosa que usará la inteligencia artificial para buscar constantemente nuevos caminos para introducirse en nuestros datos y billeteras", acotó.

3. Manipulación de la opinión pública
Las noticias y los videos falsos generados por IA y bots podrían tener un gran impacto en la opinión pública, alterando todos los niveles de la sociedad, desde la política hasta los medios. El uso de bots de redes sociales difundiendo noticias falsas fue ya una realidad durante la campaña presidencial en los Estados Unidos en 2016.

Los bots bien entrenados podrían crear una ventaja estratégica para los partidos políticos, y funcionar casi como máquinas de propaganda de inteligencia artificial que prosperarían en sociedades de baja confianza, afirma el informe.

Esto va más allá de la simple difusión de contenidos falsos. "Los sistemas de IA ahora pueden crear imágenes sintéticas que son casi indistinguibles de las fotografías, mientras que hace solo unos años atrás las imágenes que producían eran toscas y obviamente poco realistas", dice el informe.

Wendell Wallach, Presidente del Consejo Mundial Futuro de Tecnología, Valores y Política del Foro Económico Mundial, y autor de "A Dangerous Master: How to keep technology from slipping beyond our control", dice que las redes sociales ya combinan ideas sobre la psicología humana y cómo manipular las opiniones, y que se volverán más sofisticadas en los próximos años.

"Estas herramientas no se utilizarán solo como propaganda de los estados para confundir y desestabilizar a los líderes opositores, sino también como nuevos métodos empleados por los políticos y los partidos para rastrear, manipular y controlar a los ciudadanos dentro de un país".

Mitigación de los riesgos

En respuesta a estas y otra infinidad de amenazas descritas en el informe, los expertos han planteado cuatro recomendaciones de "alto nivel":

1. Los responsables políticos y los investigadores técnicos deben trabajar juntos ahora para comprender y prepararse para el uso malicioso de la IA.

2. Mientras que la IA tiene muchas aplicaciones positivas, es una tecnología de doble uso, y los investigadores e ingenieros deben ser conscientes y proactivos sobre el potencial de su uso indebido.

3. Se pueden y deben aprender las mejores prácticas de disciplinas con una historia más larga de manejo de los riesgos del doble uso, como la seguridad informática.

4. La variedad de las partes interesadas involucradas en la prevención y mitigación de los riesgos del uso malicioso de la IA debería expandirse activamente.

"Se requerirá una nueva forma de gobierno ágil e integral tanto a nivel internacional como nacional para maximizar los beneficios de la IA, mitigar los riesgos y cumplir con estas cuatro recomendaciones de alto nivel", dice Wendell Wallach.

En el Centro del Foro Económico Mundial para la Cuarta Revolución Industrial, la Directora de Inteligencia Artificial y Aprendizaje Automático, Kay Firth-Butterfield, está trabajando para abordar algunos de los pasos descritos en el informe para mitigar los riesgos: "Hemos codiseñado un proyecto para ayudar a los investigadores e ingenieros a ser conscientes del uso indebido de la IA, para asegurarnos de que la enseñanza sobre el diseño ético y relevante desde un punto de vista cultural de la IA esté disponible para cualquier estudiante y posgraduado que diseñe, desarrolle y cree IA", dice Firth- Butterfield.

"También estamos trabajando con los gobiernos y los consejos de administración para crear las mejores prácticas para la puesta en marcha y el uso de la inteligencia artificial", explica. "Queremos imaginar un nuevo tipo de regulador que pueda abordar los riesgos de una manera ágil, y promover y fomentar el uso de la tecnología de manera beneficiosa para toda la humanidad y el planeta".

Por Rob Smith
Formative Content
Fuente: Foro Económico Mundial