Módulos Temas Día

Componente humano y tecnológico

Paradoja de machine learning: privacidad exponencial y consentimiento logarítmico

La regulación del uso de datos debe buscar que las decisiones con base en estos tengan análisis y auditoría, según IE Business School. El reto está en la transparencia y evitar el sesgo.

el hombre

el hombre

Por Bernardo Crespo
Director del Programa de Dirección en Transformación Digital en IEXL.

Se atribuye a Nietzsche la cita “No me molesta que me hayas mentido, estoy molesto porque a partir de ahora no te puedo creer”. El impacto de los agujeros de datos de Facebook en las elecciones en EE.UU. o el referéndum del Brexit  está haciendo perder popularidad y confianza al gigante social, que por primera vez en su historia ha perdido usuarios en Europa en dos trimestres del 2018 (ver cuadro).

¿Es posible que en la tierra donde hemos diseñado la regulación más restrictiva del planeta –Reglamento Europeo de Protección de Datos, GDPR– en materia de privacidad de datos no perdonemos estos deslices? Pusimos el foco en proteger la propiedad de los datos. El error está en el uso de esos datos personales como parte de inferencias a nivel agregado, en la tiranía del algoritmo.

La regulación

Quizás toque supervisar el uso que se hace de esos datos a nivel agregado y dejar de sostener discusiones estériles sobre la propiedad de los datos a nivel individual. Nos guste o no la regulación es un sustituto imperfecto de la responsabilidad individual y la confianza. Vivir en la era digital supone entregar información. Esa es la base del contrato social.

La regulación debe buscar que las decisiones que se tomen a partir de modelos en los que nuestros datos personales sean un insumo sí deberían tener cierto nivel de escrutinio, análisis y auditoría.

El crecimiento exponencial de los datos en esta 4ª Revolución Industrial y la facilidad de generar aprendizajes gracias a la tecnología (inteligencia artificial y machine learning) deja a los humanos es un falso espacio de victimismo.

Si dejamos que piensen las correlaciones corremos el riesgo de que en la búsqueda del modelo de éxito empresarial premiemos el atributo masculino y la raza blanca. En otras palabras, estamos perpetuando el sesgo.

La batalla contra el sesgo

Solo cuando un humano se cuestiona la falta de diversidad se pueden alterar las consecuencias de los sesgos acumulados en series históricas. Y si quien alimenta la máquina solo tiene un foco, corremos el riesgo que el trabajo de gente tan valiosa como ingenieros de datos o matemáticos solo sea validado por el criterio ejecutivo. Primará el crecimiento o la eficiencia como únicos indicadores de éxito.

La batalla por librar está en el acceso, gobierno y rectificación del algoritmo que regula el comportamiento de la máquina. De otro modo podemos caer en el error de perpetuar sesgos y aceptar decisiones cuando un algoritmo se convierte en el insumo de datos de otro. El reto está en la transparencia y la responsabilidad. La conversación va a girar en torno a regular, supervisar y generar mayor espacio de transparencia en el manejo de datos.

¿Es posible que aparezcan nuevas plataformas como “bancos personales” que exploren el concepto de portabilidad del dato?, ¿las compañías tendrán la obligación de contar con el apoyo de un especialista para garantizar la supervisión de toda su “algoritmia”?, ¿empezamos a hablar de “Independent Data Expert Auditor”? No sería una mala IDEA.

La combinación ideal

Un mundo lleno de profesionales “STEM” (Science Technology Engineering and Mathematics) desnaturaliza algo tan valioso como el progreso de la humanidad. El equilibrio quizás esté en la combinación de profesionales de las “artes” y profesiones “stem”. El nuevo talento híbrido que buscamos encaja más en un sincretismo de humanismo y tecnología.

Son las personas las que deben seguir siendo responsables de las decisiones que se toman cuando se infieren consecuencias evolutivas a partir del trabajo con datos personales. La nueva deriva de la tecnología y el uso de datos a nivel masivo debe contener la visión filosófica de humanos como últimos garantes: Personas, Datos y Tecnología. Y a ser posible en ese orden.

Esta nueva era trae consigo la tiranía del algoritmo como el nuevo engranaje que define el precio de productos mediante la utilización de modelos dinámicos de fijación de precios. Estamos subsidiados por un modelo Montecarlo, teoría de juegos o cadenas de Markov. Es posible, y el ser humano debe tener acceso al resultado del modelo. No hablo únicamente de rectificación, hablo de transparencia.

Las empresas que decidan exponer la transparencia de sus modelos serán generadoras de confianza. Ya no tienes el legítimo derecho de protestar cuando alguien utiliza tus datos. Hace mucho tiempo que aceptaste el contrato social.

Sin embargo, tienes la legítima responsabilidad de velar por la deriva de datos y tecnología superando ese falso victimismo que sobrevuela la inteligencia artificial. Solo así podremos acortar el gap existente entre la evolución exponencial de los datos y el limitado consentimiento de los humanos. ¿Machine learning? Sí, y que el humanismo enseñe a la máquina.

infografía

infografía

Leer comentarios ( )