Se supone que la política tiene que ver con la persuasión, pero siempre ha sido acechada por la propaganda. Los militantes disimulan, exageran y mienten. Comunican mentiras, tanto las descaradas como las blancas, a través de cualquier medio que tengan a la mano. Las conspiraciones contra las vacunas alguna vez se propagaron a través de panfletos en lugar de pódcast.
Un siglo antes del COVID-19, los detractores del uso de cubrebocas en la era de la gripe española emprendieron una campaña de desinformación. Enviaron mensajes falsos del director general de sanidad de Estados Unidos a través de telegramas. Como las personas no son ángeles, las elecciones nunca han estado libres de falsedades y creencias erróneas.
Sin embargo, ahora se avecina una serie de elecciones en el mundo para el año 2024 y algo nuevo está causando mucha preocupación. En el pasado, la desinformación siempre fue creada por humanos. Los avances en la inteligencia artificial (IA) generativa, con modelos que pueden producir ensayos sofisticados y crear imágenes realistas a partir de instrucciones de texto, hacen posible la existencia de una propaganda sintética.
El temor es que las campañas de desinformación puedan verse potenciadas en 2024, justo cuando países con una población colectiva de unos 4,000 millones de personas (entre ellos Estados Unidos, el Reino Unido, India, Indonesia, México y Taiwán) se preparan para ejercer el voto. ¿Qué tan preocupados deberían estar sus ciudadanos?
LEA TAMBIÉN: BHP combate caída de ley en su mayor mina de cobre con IA
Es importante ser preciso sobre lo que cambian las herramientas de IA generativa como ChatGPT y lo que no. Antes de que aparecieran estas herramientas, la desinformación ya era un problema en las democracias. La corrosiva idea de que las elecciones presidenciales de Estados Unidos en 2020 estuvieron amañadas llevó a los alborotadores al Capitolio el 6 de enero, pero esa desinformación fue difundida por Donald Trump, las élites republicanas y los medios de comunicación conservadores utilizando medios convencionales.
Activistas del Partido Popular Indio difundieron rumores a través de cadenas de WhatsApp. Los propagandistas del Partido Comunista chino transmiten temas de conversación a Taiwán mediante medios informativos que en apariencia son legítimos. Todo esto se hace sin utilizar herramientas de IA generativa.
¿Qué podrían cambiar los grandes modelos de lenguaje en 2024? Una cosa sería la cantidad de desinformación: si el volumen de tonterías se multiplicara por 1,000 o 100,000, podría persuadir a la gente a que vote de otra manera. Y lo segundo sería la calidad. Los videos ultrafalsos hiperrealistas podrían influir en los votantes antes de que se puedan desacreditar audios, fotos y videos falsos.
LEA TAMBIÉN: Creador de ChatGPT recibe primer ‘visado de oro’ de Indonesia: ¿Qué significa?
Una tercera preocupación sería la microfocalización. Con la IA, los votantes serían inundados de propaganda altamente personalizada a gran escala. Las redes de bots de propaganda podrían resultar más difíciles de detectar que las iniciativas de desinformación actuales. La confianza de los votantes en sus conciudadanos, que en Estados Unidos ha estado disminuyendo durante décadas, bien podría verse afectada a medida que la gente comience a dudar de todo.
Esto es preocupante, pero hay razones para creer que la IA no está a punto de arruinar los 2,500 años de antigüedad que tiene la humanidad experimentando con la democracia. Mucha gente piensa que los demás son más crédulos que ellos mismos. De hecho, es difícil persuadir a los electores, especialmente en destacados políticos, como quién quieren que sea presidente. (Pregúntate qué video ultrafalso cambiaría tu elección entre Joe Biden y Trump). La industria de campañas multimillonarias en Estados Unidos que utiliza humanos para persuadir a los votantes solo puede generar cambios mínimos en la conducta de estos.
Las herramientas que producen imágenes y textos falsos creíbles existen desde hace décadas. Aunque la IA generativa podría ser una tecnología que ahorre mano de obra a las granjas de troles de internet, no está claro que esa labor sea la limitación vinculante en la producción de desinformación.
Los nuevos algoritmos de generación de imágenes son impresionantes, pero sin una calibración y un criterio humanos todavía son propensos a producir imágenes de personas con seis dedos en cada mano, lo que hace que la posibilidad de realizar videos ultrafalsos personalizados sea remota por ahora. Incluso si estas tácticas potenciadas por la IA resultaran efectivas, pronto serían adoptadas por muchas partes interesadas: el efecto acumulativo de estas operaciones de influencia sería hacer que las redes sociales sean aún más cacofónicas e inutilizables. Es complicado demostrar que la desconfianza se traduce en una ventaja sistemática de una parte sobre la otra.
LEA TAMBIÉN: De ser elegido, Trump acabará con ciudadanía automática para hijos de indocumentados
Las plataformas de redes sociales, donde se difunde la desinformación, y las empresas de inteligencia artificial dicen que su atención está sobre los riesgos. OpenAI, la compañía detrás de ChatGPT, dice que supervisará el uso de esa herramienta para intentar detectar operaciones de influencia política.
Las plataformas de gran tecnología, criticadas tanto por propagar desinformación en las elecciones de 2016 como por eliminar demasiada información en 2020, han mejorado su capacidad de identificar cuentas sospechosas (aunque se han vuelto reacias a arbitrar la veracidad del contenido que generan las personas reales). Alphabet y Meta prohíben el uso de medios manipulados en la publicidad política y aseguran que pueden responder con rapidez ante los videos ultrafalsos. Otras compañías intentan elaborar un estándar tecnológico que establezca la procedencia de imágenes y videos reales.
No obstante, la regulación voluntaria tiene límites y la que se hace de manera involuntaria plantea riesgos. Los modelos de código abierto, como Llama de Meta, que genera texto, y el Stable Diffusion, que produce imágenes, se pueden utilizar sin supervisión. Y no todas las plataformas son iguales: TikTok, la empresa de redes sociales para compartir videos, tiene vínculos con el gobierno de China y la aplicación está diseñada para promover la viralidad desde cualquier fuente, incluso las cuentas nuevas.
X, antes conocida como Twitter, eliminó su equipo de supervisión después de que Elon Musk compró la empresa y la plataforma es un paraíso para los bots. La agencia que regula las elecciones en Estados Unidos está considerando un requisito de divulgación para las campañas que utilizan imágenes generadas sintéticamente. Esto es sensato, aunque los agentes malintencionados no lo cumplirán. Algunos en Estados Unidos piden un sistema de regulación extrema similar al que se implementa en China.
Allí, los algoritmos de IA deben registrarse ante un organismo gubernamental y de algún modo encarnar los valores socialistas fundamentales. Un control tan estricto erosionaría la ventaja que tiene Estados Unidos en la innovación de IA.
La política nunca fue pura
El determinismo tecnológico, que atribuye todas las debilidades de las personas a las herramientas que estas utilizan, es tentador. Pero también es erróneo. Si bien es importante ser conscientes del potencial que tiene la IA generativa para alterar las democracias, el pánico es injustificado.
Antes de los avances tecnológicos de los últimos dos años, la gente era bastante capaz de transmitirse todo tipo de ideas destructivas y terribles entre sí. La campaña presidencial estadounidense de 2024 se verá empañada por la desinformación sobre el Estado de derecho y la integridad misma de las elecciones. Pero su progenitor no será algo novedoso como ChatGPT. Será Trump.
LEA TAMBIÉN: Amenazas digitales: El porcentaje de peruanos que usa su equipo personal para trabajar