Si le pregunta algo a ChatGPT, una herramienta de inteligencia artificial (IA) que está de moda, las respuestas que obtiene son casi instantáneas, absolutamente seguras y, a menudo, incorrectas. Es algo así como hablar con un economista. Las preguntas planteadas por tecnologías como ChatGPT arrojan respuestas mucho más tentativas. Pero son los que los gerentes deberían comenzar a preguntar.
Un problema es cómo lidiar con las preocupaciones de los empleados sobre la seguridad laboral. Las preocupaciones son naturales. Una IA que facilita el procesamiento de sus gastos es una cosa; una IA junto a la que la gente preferiría sentarse en una cena, es otra muy distinta. Ser claro acerca de cómo los trabajadores redirigirían el tiempo y la energía que libera una IA ayuda a fomentar la aceptación. También lo hace crear un sentido de intermediario: una investigación realizada por MIT Sloan Management Review y Boston Consulting Group descubrió que la capacidad de anular una IA hace que los empleados sean más propensos a usarla.
No está tan claro si las personas realmente necesitan entender lo que sucede dentro de una IA. Intuitivamente, ser capaz de seguir el razonamiento de un algoritmo debería triunfar sobre no poder hacerlo. Pero una investigación realizada por académicos de la Universidad de Harvard, el Instituto de Tecnología de Massachusetts y la Universidad Politécnica de Milán sugiere que demasiadas explicaciones pueden ser un problema.
Los empleados de Tapestry, una cartera de marcas de lujo, tuvieron acceso a un modelo de previsión que les indicaba cómo asignar existencias a las tiendas. Algunos utilizaron un modelo cuya lógica podía interpretarse; otros usaron un modelo que era más una caja negra. Los trabajadores resultaron ser más propensos a anular los modelos que podían entender porque estaban, erróneamente, seguros de sus propias intuiciones. Sin embargo, los trabajadores estaban dispuestos a aceptar las decisiones de un modelo que no podían comprender debido a su confianza en la experiencia de las personas que lo habían construido. Las credenciales de quienes están detrás de una IA importan.
Las diferentes formas en que las personas responden a los humanos y a los algoritmos es un área de investigación floreciente. En un artículo reciente, Gizem Yalcin de la Universidad de Texas en Austin y sus coautores analizaron si los consumidores respondían de manera diferente a las decisiones (aprobar un préstamo a alguien, por ejemplo, o una membresía en un club de campo) cuando las tomaba un máquina o una persona.
Descubrieron que las personas reaccionaban de la misma manera cuando eran rechazadas. Pero se sintieron menos positivos acerca de una organización cuando fueron aprobados por un algoritmo en lugar de un ser humano. ¿La razón? Las personas son buenas para explicar las decisiones desfavorables, sin importar quién las tome. Es más difícil para ellos atribuir una aplicación exitosa a su propio ser encantador y fabuloso cuando son evaluados por una máquina. La gente quiere sentirse especial, no reducida a un punto de datos.
Mientras tanto, en un artículo próximo, Arthur Jago de la Universidad de Washington y Glenn Carroll de la Escuela de Graduados en Negocios de Stanford investigan cuán dispuestas están las personas a dar en lugar de recibir crédito, específicamente por el trabajo que alguien no hizo por su cuenta. Les mostraron a los voluntarios algo atribuido a una persona específica (una obra de arte, por ejemplo, o un plan de negocios) y luego revelaron que había sido creado con la ayuda de un algoritmo o con la ayuda de asistentes humanos.
Todos dieron menos crédito a los productores cuando se les dijo que habían recibido ayuda, pero este efecto fue más pronunciado para el trabajo que involucró a asistentes humanos. Los participantes no solo vieron el trabajo de supervisar el algoritmo como más exigente que supervisar a los humanos, sino que no sintieron que fuera tan justo que alguien se atribuyera el trabajo de otras personas.
Otro artículo, de Anuj Kapoor del Instituto Indio de Administración de Ahmedabad y sus coautores, examina si las IA o los humanos son más efectivos para ayudar a las personas a perder peso. Los autores observaron la pérdida de peso lograda por los suscriptores de una aplicación móvil india, algunos de los cuales usaron solo un entrenador de inteligencia artificial y otros también usaron un entrenador humano.
Descubrieron que las personas que también usaban un entrenador humano perdían más peso, se fijaban metas más difíciles y eran más exigentes con el registro de sus actividades. Pero a las personas con un índice de masa corporal más alto no les fue tan bien con un entrenador humano como a las que pesaban menos. Los autores especulan que las personas más gordas podrían sentirse más avergonzadas al interactuar con otra persona.
La imagen que surge de tal investigación es desordenada. También es dinámica: así como evolucionan las tecnologías, también lo harán las actitudes. Pero deja muy claro una cosa. El impacto de ChatGPT y otras IA dependerá no solo de lo que puedan hacer, sino también de cómo hagan sentir a las personas.