Módulos Temas Día

Inteligencia artificial es "parte de respuesta" a noticias falsas, según experto de Facebook

Yann LeCun, científico titular de inteligencia artificial de Facebook y pionero en el desarrollo del aprendizaje profundo, dijo que "la IA es parte de la respuesta, pero solo parte" de la solución a los problemas que enfrenta la compañía.

inteligencia artificial

inteligencia artificial

El problema más difícil de abordar eran las noticias falsas, dijo Yann LeCun, científico de Facebook. (Foto: Bloomberg)

La inteligencia artificial está ayudando a Facebook Inc. a abordar problemas de propaganda extremista, cuentas falsas y discurso de odio, pero aún no es lo suficientemente sofisticada para manejar muchos de los problemas más apremiantes que enfrenta la red social, dijo el miércoles el principal investigador de IA de la compañía.

Yann LeCun, científico titular de inteligencia artificial de Facebook y pionero en el desarrollo del aprendizaje profundo, dijo que "la IA es parte de la respuesta, pero solo parte" de la solución a los problemas que enfrenta la compañía.

Tras los recientes escándalos por presuntas intromisiones rusas en las elecciones, el uso indebido de datos de usuarios y contenido extremista, el máximo ejecutivo de Facebook, Mark Zuckerberg, dijo a legisladores europeos y estadounidenses que la IA con el tiempo ayudará a la compañía a resolver esos problemas.

Pero el cofundador de la red social no ha sido preciso sobre cuándo podrían estar listos esos sistemas o cómo funcionarán exactamente.

En la conferencia de tecnología “Sooner Than You Think” de Bloomberg, realizada en París, LeCun dijo que el software de aprendizaje automático ahora era bastante eficaz para bloquear la publicación de videos extremistas, poner freno a posibles discursos de odio e identificar cuentas falsas.

Pero sostuvo que cuando se trataba de asuntos como "noticias falsas" o algún tipo de contenido extremista, los sistemas no podían entender suficiente contexto para ser eficaces.

Por ejemplo, estos sistemas no pueden distinguir fácilmente entre videos extremistas utilizados para propaganda terrorista y el mismo video utilizado para ilustrar un noticiario televisivo legítimo; o entre un discurso utilizado para difundir el odio y el mismo discurso extraído por un grupo de derechos civiles para resaltar el peligro de los grupos de odio.

También dijo que los sistemas de aprendizaje automático de hoy en día generalmente no comprenden la ironía o el humor.

El problema más difícil de abordar eran las noticias falsas, dijo LeCun. "La IA no está cerca de poder resolver ese problema".
Si bien la visión artificial y el procesamiento del lenguaje natural han avanzado enormemente gracias a algoritmos de aprendizaje profundo que LeCun y otros investigadores han desarrollado, la inteligencia artificial aún tiene dificultades en situaciones donde un sistema necesita algún tipo de conocimiento externo que no esté directamente incluido en los datos con los que está siendo entrenado, para hacer una evaluación correcta.

LeCun dijo que no le preocupa la posibilidad de que personas con malas intenciones que utilizan el aprendizaje automático generen videos o fotos falsos que puedan engañar a las personas con mayor facilidad. Dijo que, en tales casos, la IA podría usarse para ayudar a detectar imágenes generadas por IA.

"Hay bastante investigación en cuanto al entrenamiento de un sistema para detectar realmente si una imagen ha sido generada o manipulada artificialmente", dijo.

Leer comentarios ( )