AI, no sé si creerte
Diversas herramientas de inteligencia artificial (AI por sus siglas en inglés) están siendo objeto de debate porque es cada vez más palpable —¿e incierto?— su impacto en nuestro día a día, aunque no lo hayamos interiorizado aún porque no todas llevan un nombre propio. Entre los casos más destacados están Chat GPT (un chatbot) y a DALL-E (que genera imágenes a partir de descripciones textuales), ambas desarrolladas por la compañía OpenAI.
Estas herramientas están acelerando la velocidad con la que se hacen actividades académicas o artísticas, y muchos se preguntan si su aparición significa el fin de puestos de trabajo, especialmente de aquellos que emplean una computadora. Este eventual proceso forma parte de la denominada cuarta revolución industrial, que se caracteriza por la producción y provisión de servicios con un alto nivel de automatización y basados en conocimiento.
Si la información es un insumo, las herramientas de AI son similares a las fábricas que transforman esos insumos en un producto con valor agregado. En esa lógica, los empleos del futuro son símiles de los operarios especializados que verifican la calidad de los insumos y supervisan las máquinas de las fábricas. El resultado de este proceso es nueva información, que servirá para tomar decisiones o para generar nueva información. Por ello, es fundamental que esta sea robusta y confiable.
Lo anterior nos lleva a plantearnos la siguiente interrogante: ¿qué es verdad y qué no? Con la aparición de las redes sociales, esta pregunta empezó a estar cada vez más presente en artículos, noticias y publicaciones. Luego, con la masificación de las herramientas de AI, la información —no solo texto, también imágenes e incluso vídeos— se vuelve cada vez más sintética y accesible. Sin embargo, sin la garantía de que ésta sea verídica, la interrogante planteada se exacerba.
Las herramientas de AI tienen limitaciones, tales como el sesgo, la insuficiencia o falsedad en los datos que se utilizaron para entrenarlas. La consecuencia son predicciones que no reflejan la realidad. Incluso si los insumos fueran de alta calidad, otro aspecto que no se ha logrado resolver es entender la forma como las herramientas de AI procesan esta información, dada su naturaleza compleja. Parte de conseguir información robusta y confiable es que el proceso para llegar a ella sea transparente.
Por ello, los empleos del futuro estarán ligados a corroborar la calidad de la información. Como ejemplos están los científicos de datos, especialistas en automatización, expertos en ciberseguridad, verificadores de hechos, abogados especialistas en derecho digital o en propiedad intelectual, hacedores de política en AI, entre otros.
Además, es cada vez más importante que los usuarios de la información cultivemos un pensamiento crítico propio. Que aprendamos a cuestionar y comparar fuentes, especialmente en escenarios de crisis política o social como los que viene experimentando el Perú. A diferencia de artículos pasados que han sido publicados en este blog, en esta ocasión no he presentado ni cifras ni fuentes que sustenten lo escrito hasta ahora, por eso, también es cada vez más importante el aspecto reputacional de las fuentes de información.
Para demostrar que las herramientas de AI son útiles, me hubiera gustado utilizar alguna de ellas para escribir este artículo, pero aún comete erroers. Por eso, siempre será necesaria la intervención humana.
Realizado por: Franco Sebastiani, analista senior de Videnza Consultores