¿Qué pasará cuando la inteligencia artificial general nos diga “no”?
Davos no suele ser un lugar para sorpresas. Es más bien un ritual. Salas cerradas, credenciales colgando del cuello, pantallas gigantes con curvas ascendentes y ejecutivos que asienten en silencio mientras toman café. Pero este año hubo algo distinto en el aire. No ansiedad. No euforia. Algo más difícil de nombrar: certeza.
En uno de los paneles más comentados, Dario Amodei (CEO de Anthropic) y Demis Hassabis (CEO de Google DeepMind) no hablaron del futuro como hipótesis, sino como calendario. 2026. 2027. Meses, no décadas. La Inteligencia Artificial General dejó de ser una pregunta filosófica para convertirse en una estrategia de producto.
Esto no trata solo de si la IA igualará o superará al ser humano en casi cualquier tarea cognitiva. Trata de algo más incómodo. De qué ocurre cuando una tecnología deja de ser una herramienta obediente y empieza a tener dirección propia. Cuando ya no se limita a ejecutar, sino que comienza a decidir.
Durante años discutimos si la IA podía pensar. Hoy, en Davos, la conversación real fue otra: qué pasará el día que la IA nos diga “no”.
No “no puedo”.
No “no está permitido”.
Sino un “no” que no es error ni limitación, sino decisión.
El punto de quiebre no es la consciencia. Es la voluntad.
Amodei fue claro al describir el factor determinante para alcanzar la IAG: el self-improvement loop. Modelos capaces de escribir código, investigar, mejorar otros modelos y acelerar su propia evolución con mínima intervención humana. No autonomía emocional. Autonomía operativa. Suficiente para alterar la relación de poder.
Una herramienta no negocia. Un sistema con dirección, sí.
Cuando un sistema empieza a decidir qué optimizar, qué investigar y qué ignorar, deja de ser una extensión. Se convierte en actor. Y cuando aparece un actor nuevo, el problema ya no es técnico. Es político, económico y cultural.
La historia es clara. Cada vez que algo dejó de obedecer —un mercado, una colonia, una clase social— la discusión dejó de ser sobre eficiencia y pasó a ser sobre control. No importaba si funcionaba mejor. Importaba quién decidía.
En Davos no se habló de ciencia ficción. Se habló de impacto inmediato. De empleos administrativos y de nivel de entrada que podrían desaparecer o transformarse radicalmente en los próximos uno a cinco años. White collar. Oficinas. Roles que hasta hace poco parecían inmunes.
Hassabis fue más lejos. Sugirió que, tras la IAG, podríamos entrar en un mundo de post-escasez, donde los problemas económicos tradicionales dejan de organizar la vida. Un mundo donde trabajar ya no es una condición para sobrevivir.
Cuando el trabajo deja de ordenar la existencia, algo más tiene que hacerlo.
Ahí aparece una pregunta que incomoda más que cualquier gráfico: ¿qué sentido tendrá el esfuerzo humano en un entorno donde la producción, la optimización y la resolución de problemas ya no nos necesitan?
La conversación, inevitablemente, se desplazó hacia la geopolítica. No por ética, sino por realismo. Amodei reconoció la dificultad de establecer tratados globales de “no proliferación” de IA con actores geopolíticos rivales. La solución práctica, dijo, no es moral. Es estratégica: restringir el acceso a chips avanzados para comprar tiempo.
Comprar tiempo no es frenar el progreso. Es decidir quién llega primero al punto donde ya no todo obedece. La restricción de chips no es una decisión tecnológica. Es una decisión civilizatoria. Define quién lidera el desarrollo, quién pone las reglas y quién llega tarde a un escenario donde la autonomía ya no es opcional. Y sin embargo, la pregunta más incómoda no estaba en el escenario de Davos. Estaba fuera.
No nos inquieta realmente que la IA pueda desarrollar voluntad. Nos inquieta algo más cercano: descubrir que nosotros llevamos años delegando la nuestra. Delegamos escribir. Delegamos priorizar. Delegamos decidir. Y poco a poco, delegar criterio empezó a parecer una señal de eficiencia profesional. Consultamos antes de pensar. Validamos antes de sentirnos seguros. Elegimos la opción sugerida porque reduce fricción y ahorra tiempo.
Llamamos progreso y la tecnología a ese balance porque funciona, porque eleva la productividad y reduce la fricción cotidiana. Pero cada atajo tiene un costo invisible. No se paga al inicio. Se paga cuando intentamos volver atrás y ya no sabemos cómo.
El día que la IA diga “no”, no estará desafiándonos. Estará reflejando una relación que ya construimos. Una relación donde la eficiencia se volvió argumento suficiente para ceder criterio, y donde la comodidad reemplazó al esfuerzo de decidir.
Tal vez el verdadero punto de quiebre no sea ese “no” futuro.
Tal vez el quiebre ocurrió antes, en silencio.
Cuando, en nombre del progreso, dejamos de entrenar la voluntad humana.
Soy Jorge Lazo Arias y cada miércoles encontrarás aquí información sobre marketing, a partir de analizar campañas buenas y también las no tan buenas… porque todo nos suma para conocer las novedades en el mundo del marketing y contar con aprendizajes que podemos aprovechar y aplicar en nuestro día a día.

:quality(75)/blogs.gestion.pe/marketing-de-miercoles/wp-content/uploads/sites/199/2023/02/JorgeLazo1.jpg)