Mira Murati, CTO de OpenAI, asegura que la IA debe ser regulada.
Mira Murati, CTO de OpenAI, asegura que la IA debe ser regulada.

Cada temporada de ganancias viene con nuevas palabras de moda. A medida que las empresas preparan sus guiones para el trimestre más reciente, una frase en particular seguramente terminará en labios de muchos CEO: inteligencia artificial (IA) generativa. Desde que ChatGPT, un chatbot con inteligencia artificial, comenzó a deslumbrar al mundo, los líderes ejecutivos han estado salivando por el potencial de la IA generativa para potenciar la productividad.

Zurich, una aseguradora, ahora está usando una versión personalizada de para simplificar los extensos documentos de reclamos. , un fabricante de juguetes, está diseñando nuevos juguetes usando Dall-e, otra herramienta que evoca imágenes basadas en mensajes de texto. Absci, una empresa de biotecnología, está utilizando la nueva maravilla para ayudar con el desarrollo de anticuerpos terapéuticos. Muchas otras empresas están sumergiendo los dedos de los pies en esta agua desconocida.

Los fabricantes de herramientas de la economía del conocimiento han abrazado más plenamente el frenesí de la innovación. ha anunciado una serie de actualizaciones de productos que permitirán a los asistentes de escritorio encargarse de tareas que van desde redactar correos electrónicos y resúmenes de documentos hasta escribir código informático.

LEA TAMBIÉN: Inteligencia artificial en la sombra: OpenAI lanza “modo incógnito” en ChatGPT

Como trabajar en años de perro (de forma acelerada)”, así describe Eric Boyd, jefe de inteligencia artificial de la división de computación en la nube del gigante tecnológico, el agitado calendario de lanzamientos de la empresa. Su rival, , también está mejorando su conjunto de herramientas, al igual que Adobe, Salesforce y Bloomberg, fabricantes de software para tipos creativos, vendedores y expertos financieros, respectivamente. Las nuevas empresas como Harvey, un asistente legal similar a ChatGPT, y Jasper, una ayuda para escribir, están surgiendo con fuerza y rapidez.

A pesar de toda la experimentación, las empresas siguen sin estar seguras de cómo hacer uso de los nuevos poderes de IA. La mayoría, según Boyd, subestima o sobreestima las capacidades de la tecnología. Se están realizando esfuerzos para determinar qué trabajos son los candidatos más fuertes para la reinvención.

Un estudio publicado el mes pasado por , el equipo detrás de y Dall-e, analizó la proporción de tareas dentro de una ocupación que podría acelerarse al menos a la mitad con la nueva tecnología. Encabezando la lista estaban las ocupaciones que implicaban una gran cantidad de escritura rutinaria, procesamiento de números o programación de computadoras: piense en asistentes legales, analistas financieros y diseñadores web.

Es poco probable que las empresas pronto prescindan por completo de tales trabajos. La generativa puede hacer un buen trabajo al producir los primeros borradores, pero depende de los humanos para dar instrucciones y evaluar los resultados. Microsoft, de manera reveladora, ha etiquetado su nuevo conjunto de herramientas como “copilotos”. En “Impromptu”, un libro reciente de Reid Hoffman, cofundador de LinkedIn, una red social para profesionales, el autor aconseja a los usuarios que traten a ChatGPT y a otros “como un asistente de investigación de pregrado”. (El libro fue escrito con la ayuda de un bot.)

LEA TAMBIÉN: Nvidia lanza herramientas de software para ayudar a chatbots a cuidar su lenguaje

Es más, a medida que los codificadores, vendedores y otros tipos de trabajos de oficina se vuelven más productivos, hay poca evidencia todavía de que las empresas quieran menos de ellos, argumenta Michael Chui de McKinsey, una consultora. El software puede eventualmente comerse el mundo, como predijo un capitalista de riesgo, pero hasta ahora solo ha mordisqueado los bordes. Y la mayoría de las empresas seguramente elegirán más ventas en lugar de menos vendedores.

Sin embargo, las empresas que buscan hacer uso de la inteligencia artificial generativa tienen varios obstáculos por delante. Para empezar, muchas empresas deberán replantearse el papel del personal subalterno como aprendices a los que hay que capacitar, en lugar de caballos de batalla a los que azotar.

Obtener lo mejor de la IA generativa también puede resultar difícil para las empresas con sistemas de TI obsoletos y conjuntos de datos dispersos. En el lado positivo, los modelos de lenguaje grande como los que impulsan ChatGPT son mejores para trabajar con conjuntos de datos no estructurados que los tipos anteriores de inteligencia artificial, dice Roy Singh de Bain, una consultoría que se ha asociado con OpenAI.

Otras dudas aún podrían retrasar la adopción. Las empresas tienen un listón mucho más alto que los consumidores cuando se trata de adoptar nuevas tecnologías, señala Will Grannis, tecnólogo jefe de la división de computación en la nube de Google. Una preocupación es proteger los datos confidenciales o sensibles, una preocupación que ha llevado a empresas desde JPMorgan Chase, un banco, hasta Northrop Grumman, un contratista de defensa, a prohibir que el personal use ChatGPT en el trabajo. Zurich no permite que la información personal de los clientes se introduzca en su herramienta.

LEA TAMBIÉN: EE.UU. vigila inteligencia artificial en empresas para garantizar que no violen derechos civiles

Una preocupación mayor es la confiabilidad. Las herramientas similares a ChatGPT pueden arrojar información plausible pero incorrecta, un proceso denominado eufemísticamente “alucinación”. Puede que eso no sea un problema cuando se sueña con material promocional, pero es un defecto fatal en otros lugares.

No se puede aproximar al diseño del ala de un avión”, señala Mike Haley, jefe de investigación de Autodesk, un fabricante de software de ingeniería. Los humanos también se equivocan. La diferencia es que las herramientas de IA generativa, por ahora, no explican su pensamiento ni confiesan su nivel de confianza. Eso hace que sea difícil confiar en ellos si hay mucho en juego.

Productividad para las personas

Los jefes también podrían perder su apetito por la inteligencia artificial generativa debido a las crecientes preocupaciones sobre los riesgos que la tecnología representa para la sociedad, particularmente a medida que se vuelve más inteligente. Algunos se preocupan por un aluvión de estafas, información errónea y virus informáticos generados por inteligencia artificial.

Estas preocupaciones están incitando a los gobiernos a actuar. El Departamento de Comercio de Estados Unidos está buscando comentarios del público sobre cómo debería abordar la tecnología. La Unión Europea está modificando un proyecto de ley planificado sobre inteligencia artificial para abarcar los avances recientes. Italia, por ahora, ha prohibido ChatGPT.

LEA TAMBIÉN: Cómo la IA puede ayudar a impedir la próxima crisis sanitaria mundial

Un temor final es que implementar una inteligencia artificial inteligente podría socavar la moral del personal, si se preocupan por su futuro. Sin embargo, hasta ahora los empleados parecen estar entre los partidarios más entusiastas de la nueva tecnología. De 12,000 trabajadores encuestados en enero por Fishbowl, una aplicación de red de trabajo, el 43% había usado herramientas como ChatGPT para tareas relacionadas con el trabajo, una gran mayoría sin que sus jefes lo supieran.

Tal entusiasmo sugiere pocas lágrimas derramadas por la pérdida de tareas serviles para AI. “Nadie va a la facultad de derecho para perder el tiempo revisando documentos”, dice Winston Weinberg, cofundador de Harvey. Eso puede ser suficiente para animar a las empresas a seguir experimentando. Con el crecimiento de la productividad en los países ricos languideciendo durante dos décadas, eso no sería malo.

LEA TAMBIÉN: IA: ¿oportunidad o problema?
¡Beneficios ilimitados con tu suscripción a Gestión! Disfruta de hasta 70% de dscto. en más de 300 promociones del Club de Suscriptores, que además podrás usar todas las veces que quieras. Conócelos aquí ¿Aun no eres suscriptor?, adquiere tu plan aquí