Twitter analiza finamente el comportamiento del usuario, calcula su “reputación” y agrupa a los que tienen intereses similares. (Foto: AFP)
Twitter analiza finamente el comportamiento del usuario, calcula su “reputación” y agrupa a los que tienen intereses similares. (Foto: AFP)

A finales de marzo, hizo público parte del código de , como lo prometió cuando compró la red social, pero, desde entonces, los observadores especulan sobre los motivos de esa divulgación.

El 31 de marzo, Twitter publicó en la plataforma Github, muy utilizada por los desarrolladores, partes de su código fuente, es decir, las instrucciones en lenguaje informático que rigen el funcionamiento de la red.

En concreto reveló el de recomendación, que selecciona y organiza los tuits en la pestaña “Para ti”.

LEA TAMBIÉN: Musk: Twitter permitirá a usuarios cobrar por acceso a su contenido

Ciertas partes del código habían sido filtrado poco antes en Github, pero Twitter exigió retirarlo.

Pocas empresas levantan el secreto de su código informático, que representa una ventaja competitiva.

Sin embargo, algunas organizaciones optan por desarrollar en código abierto, de acceso libre, para permitir a otros desarrolladores mejorar su programa.

Twitter lo había hecho en el 2021 con su algoritmo de edición de fotos, acusado de sesgo racista.

Musk dijo que se inspiró en Bitcoin, una criptomoneda cuyo código es de libre acceso para que los usuarios puedan verificar si tiene fallos.

Inspirado en el flujo continuo de videos de , la pestaña “Para ti” presenta una lista de tuits la mitad de los cuales son de cuentas que el usuario sigue y los restantes de toda la red.

Por ello, Twitter analiza finamente el comportamiento del usuario, calcula su “reputación” y agrupa a los que tienen intereses similares.

Cada usuario se sitúa entre 145,000 “comunidades”, círculos sociales actualizados cada tres semanas que pueden agrupar desde algunos miles hasta centenas de millones de cuentas, explicó Twitter en un blog.

La comunidad “Pop” tiene 332 millones de usuarios, incluidos Katy Perry, Rihanna y Justin Timberlake, mientras que la comunidad “Bollywood” tiene 80 millones de personas.

- Aparentar transparencia -

LEA TAMBIÉN: La inversión privada en IA cayó por primera vez en una década en pleno auge

“A cuantos más usuarios de una comunidad les guste un tuit, más ese tuit será asociado a cierta comunidad” y promovido por el algoritmo, explica .

Por el contrario, publicaciones sobre temas muy diferentes se devaluarán.

Ese funcionamiento, que recuerda a las “burbujas de filtros” denunciadas desde hace tiempo por expertos en redes sociales, maximiza la participación de los usuarios pero tiende a reducir la diversidad de contenidos y opiniones compartidas en una comunidad.

El código revela también que los “likes” influyen más fuertemente en la popularidad de un tuit que los retuits o incluso las respuestas.

Los suscriptores al nuevo Twitter Blue, de pago, son favorecidos por el algoritmo, como lo había adelantado .

Twitter optó por no revelar por el momento los datos de entrenamiento de su ni los parámetros de los modelos de inteligencia artificial asociados a él.

Su justificación es no “comprometer la seguridad y la vida privada de los usuarios2 o “socavar (sus) esfuerzos de lucha contra la explotación sexual y manipulación de menores”.

Pero para el periodista Nicolas Kayser-Bril, especialista en estudios de algoritmos, “no es posible comprender un programa con solo leer el código. Se tiene que poder ejecutar en un computador”.

“Publicar grandes cantidades de código sin instrucciones puede ser peor que inútil. Permite aparentar transparencia al tiempo que imposibilita una auditoría real”, escribió en un boletín.

Según el Reglamento de Servicios Digitales que entrará en vigor este año en la , las “plataformas muy grandes” de más de 45 millones de usuarios activos, como Facebook, Instagram o Tiktok, tendrán que permitir a las autoridades estudiar sus algoritmos.

Consultado recientemente por una comisión investigadora del Senado, el director de tecnología de la Comisión Nacional de Informática y Libertades (CNIL) de Francia, Bertrand Pailhes, dijo no haber decidido aún una “posición” sobre esta obligación, que de momento solo se aplica a algoritmos en Francia.

“Hay que tener en cuenta que la publicación puede también revelar problemas de seguridad. Es algo que debe hacerse con precauciones”, advirtió.

¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de dscto. en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí ¿Aún no eres suscriptor?, adquiere tu plan aquí.