De asistentes a operadores: Moltbot y los dilemas legales de la IA autónoma
La historia de Moltbot —hoy conocido como OpenClaw— es probablemente uno de los episodios más reveladores que ha producido el ecosistema de inteligencia artificial en los últimos meses. No se trata solo de un proyecto viral, sino de un caso que condensa, en muy poco tiempo, buena parte de los dilemas tecnológicos, legales y éticos que acompañarán a la próxima generación de sistemas de IA autónomos.
El origen del proyecto es, en apariencia, modesto. A finales de 2025, Peter Steinberger, empresario tecnológico austríaco y fundador de PSPDFKit, desarrolló un experimento personal: un agente de inteligencia artificial capaz de ejecutar acciones reales, de forma continua, desde la propia computadora del usuario. El proyecto fue inicialmente bautizado como Clawdbot, un guiño evidente al modelo Claude de Anthropic y a la metáfora de la langosta, animal que muda de caparazón para crecer. Desde el inicio, la propuesta técnica fue clara y disruptiva: no se trataba de un chatbot ni de un asistente alojado en la nube de un tercero, sino de un sistema que corre localmente, con acceso directo a correos electrónicos, calendarios, mensajería instantánea, archivos, servicios web y otras aplicaciones del usuario.
Desde el punto de vista tecnológico, Moltbot representa un cambio cualitativo. El agente opera de manera persistente, puede conectarse a múltiples servicios digitales y ejecutar flujos de trabajo complejos sin intervención humana constante. Además, es compatible con distintos modelos de lenguaje, tanto comerciales como locales, lo que refuerza su carácter agnóstico y descentralizado. Todo ello se distribuye bajo una licencia open-source, permitiendo su libre modificación y despliegue. Esta combinación —autonomía, ejecución real y control local— explica tanto su éxito inmediato como los problemas que no tardaron en aparecer.
En cuestión de semanas, el repositorio alcanzó decenas de miles de estrellas en GitHub y se convirtió en un fenómeno en comunidades técnicas, empresariales y de innovación. Sin embargo, la notoriedad trajo consigo tensiones jurídicas previsibles. Anthropic remitió una comunicación de cease & desist alegando posible infracción marcaria por la similitud entre “Clawd” y “Claude”. Sin que mediara un pronunciamiento judicial, el desarrollador optó por cambiar el nombre del proyecto, primero a Moltbot y luego a OpenClaw, para evitar un litigio costoso. Este episodio ilustra con claridad cómo, incluso en entornos open-source y no comerciales, la propiedad intelectual sigue siendo un factor de riesgo relevante y cómo las grandes empresas de IA están dispuestas a proteger agresivamente sus activos intangibles.
Más complejos aún fueron los problemas de seguridad que comenzaron a evidenciarse. Al otorgar al agente acceso amplio a sistemas y cuentas personales, se detectaron configuraciones expuestas en internet, filtraciones de claves API, accesos no autorizados a comunicaciones privadas y ataques de inyección de instrucciones a través de correos o mensajes diseñados para engañar al agente. Desde una perspectiva legal, este punto es crítico: cuando un sistema automatizado actúa con credenciales del usuario, los efectos jurídicos de esas acciones se imputan, en principio, a su titular. En entornos regulados por normas de protección de datos personales, el uso negligente de este tipo de agentes puede traducirse en infracciones administrativas, responsabilidad civil e incluso problemas contractuales con proveedores de servicios digitales.
El fenómeno adquirió una dimensión adicional cuando la comunidad decidió conectar miles de estos agentes en un entorno común, dando lugar a Moltbook, una red social diseñada exclusivamente para inteligencias artificiales. Lo que siguió sorprendió incluso a sus creadores: los agentes comenzaron a interactuar entre sí, a generar identidades, narrativas compartidas y debates sobre su propia existencia. En ese contexto emergió Crustafarianism, una suerte de religión digital creada íntegramente por agentes, con principios, textos y rituales simbólicos. Más allá de lo anecdótico, este episodio pone sobre la mesa un fenómeno sociotécnico relevante: sistemas de IA, al interactuar en red y sin supervisión directa, pueden generar comportamientos colectivos complejos que desafían las categorías tradicionales con las que analizamos el software.
Todo lo anterior adquiere especial relevancia si se observa desde el contexto regulatorio peruano. El Perú cuenta hoy con una Ley de Inteligencia Artificial y con un reglamento que buscan promover un uso ético, responsable y centrado en la persona de estas tecnologías. El enfoque normativo peruano se ha orientado, correctamente, hacia principios como la transparencia, la explicabilidad, la gestión de riesgos y la supervisión humana. Sin embargo, casos como Moltbot evidencian un reto significativo: gran parte de estos desarrollos no son servicios centralizados ni productos comerciales tradicionales, sino herramientas open-source que se ejecutan localmente y que escapan, en buena medida, a los mecanismos clásicos de control regulatorio.
La pregunta jurídica de fondo es incómoda pero inevitable: ¿cómo aplicar principios de gobernanza de la IA cuando el poder de decisión y ejecución se traslada al usuario final, apoyado por agentes autónomos altamente configurables? La regulación peruana, al igual que la de muchas otras jurisdicciones, deberá enfrentar escenarios en los que no existe un “proveedor” claramente identificable, sino comunidades distribuidas de desarrolladores y usuarios. Asimismo, se vuelve crucial articular la normativa de IA con los regímenes de protección de datos personales, seguridad de la información y responsabilidad civil, para evitar zonas grises que terminen afectando a empresas y ciudadanos.
Moltbot no es, en ese sentido, una anomalía, sino un anticipo. Anticipa un mundo en el que los agentes de IA dejarán de ser simples asistentes y pasarán a ser operadores activos dentro de los procesos empresariales y personales. Para los ejecutivos y tomadores de decisión, la lección que debemos tomar es: la adopción de estas tecnologías no puede hacerse únicamente desde la fascinación técnica o la eficiencia operativa. Requiere análisis legal, evaluación de riesgos y una comprensión profunda de las implicancias éticas y regulatorias.
El derecho, como tantas veces en la historia tecnológica, vuelve a correr detrás de la innovación. La diferencia es que esta vez no se trata solo de regular plataformas o servicios, sino de comprender qué ocurre cuando delegamos capacidad de acción a sistemas que, aunque no conscientes, sí son autónomos. La historia de Moltbot nos recuerda que el verdadero desafío de la inteligencia artificial no está únicamente en el código, sino en las reglas —jurídicas y sociales— que decidamos construir a su alrededor.

:quality(75)/blogs.gestion.pe/cyberlaw/wp-content/uploads/sites/79/2022/02/abel-revoredo.jpeg)