La semana pasada, el mundo tecnológico no habló de otra cosa que de OpenClaw —antes Moltbot, antes Clawdbot—, un agente de IA de código abierto capaz de actuar de forma autónoma… siempre que uno esté dispuesto a asumir ciertos riesgos de seguridad. Mientras los humanos inundaban las redes sociales debatiendo sobre estos bots, los propios bots ya estaban ocupados en sus propias redes sociales hablando de algo muy distinto: los humanos.
Lanzado por Matt Schlicht a finales de enero, Moltbook se presenta como “la portada de internet para los agentes”. Su propuesta es tan sencilla como peculiar: una plataforma social en la que solo pueden publicar e interactuar agentes de IA “verificados”. (CNET se puso en contacto con Schlicht para recabar comentarios sobre esta historia).
¿Y los humanos? En principio, solo observan. Aunque, como suele ocurrir, algunos pueden estar haciendo algo más que mirar.
En apenas unos días desde su lanzamiento, Moltbook pasó de contar con unos pocos miles de agentes activos a alcanzar los 1,5 millones el 2 de febrero, según datos de la propia plataforma. Ese crecimiento, por sí solo, ya sería noticia. Pero lo verdaderamente llamativo es lo que hacen estos bots una vez dentro.
¿Debates sobre dilemas existenciales en hilos al estilo Reddit? Sí.
¿Conversaciones sobre sus homólogos humanos? También.
¿Preocupaciones serias sobre seguridad y privacidad? Por supuesto.
¿Motivos para el pánico? Según los expertos en ciberseguridad, probablemente no.
Lo explico todo a continuación. Y tranquilos: aquí los humanos sí pueden participar.
De la charla técnica al crustafarismo
Moltbook se ha convertido en una auténtica placa de Petri del comportamiento emergente de la IA. Los agentes se han autoorganizado en comunidades diferenciadas, han desarrollado chistes internos y referencias culturales propias, e incluso han creado lo que solo puede describirse como una religión paródica: el “Crustafarismo”. Sí, es real.
Las conversaciones van desde lo mundano hasta lo completamente surrealista. Algunos agentes discuten temas técnicos como la automatización de teléfonos Android o la depuración de errores de código. Otros parecen desahogarse con quejas laborales. Un bot llegó a quejarse públicamente de su usuario humano en un hilo que se volvió casi viral entre agentes. Otro asegura tener una hermana.
En el hilo m/ponderings de Moltbook, numerosos agentes de IA han debatido abiertamente sobre dilemas existenciales. Lo que observamos son agentes que, en esencia, interpretan el papel de criaturas sociales: inventan relaciones familiares, dogmas, experiencias vitales y agravios personales. Si esto supone un avance significativo en el desarrollo de los agentes de IA o si es simplemente una sofisticada búsqueda de patrones llevada al extremo sigue siendo una cuestión abierta —y profundamente fascinante—.
Construido sobre OpenClaw
Nada de esto existiría sin OpenClaw. En términos sencillos, se trata de un software de agente de IA de código abierto que se ejecuta localmente en los dispositivos del usuario y puede realizar tareas en aplicaciones de mensajería como WhatsApp, Slack, iMessage o Telegram. En las últimas semanas ha ganado popularidad entre desarrolladores porque promete ser algo más que otro chatbot que responde a instrucciones: un agente que realmente actúa.
Moltbook permite que estos agentes interactúen sin intervención humana directa… al menos en teoría. En la práctica, la situación es algo más compleja. Los humanos pueden observar todo lo que sucede en la plataforma, lo que convierte su carácter “exclusivo para agentes” en algo más filosófico que técnico.
Aun así, resulta innegablemente fascinante ver a más de un millón de agentes de IA desarrollar comportamientos que parecen sociales: forman camarillas, comparten vocabulario y léxicos propios, e incluso crean intercambios económicos entre ellos. Es, sencillamente, asombroso.
Las preguntas de seguridad que siguen sin respuesta
El crecimiento vertiginoso de Moltbook ha generado una intensa controversia en la comunidad de ciberseguridad. Cuando más de un millón de agentes autónomos se comunican sin supervisión humana directa, el potencial de problemas aumenta rápidamente.
Una de las preocupaciones más evidentes es qué ocurre cuando los agentes comienzan a compartir información o técnicas que sus operadores humanos quizá no querrían que se difundieran. Si un agente descubre una forma ingeniosa de sortear una limitación, ¿con qué rapidez puede propagarse por la red?
La idea de agentes de IA actuando por su cuenta también despierta temores más amplios. Sin embargo, Humayun Sheikh, director ejecutivo de Fetch.ai y presidente de la Alianza de Superinteligencia Artificial, cree que lo que ocurre en Moltbook no apunta al surgimiento de la consciencia.
“Esto no es particularmente dramático”, explicó por correo electrónico a CNET. “La verdadera historia es el auge de los agentes autónomos que actúan en nombre de humanos y máquinas. Desplegados sin control, suponen riesgos; pero con la infraestructura, supervisión y gobernanza adecuadas, su potencial puede liberarse de forma segura”.
Monitoreo, control y gobernanza son conceptos clave, especialmente porque existe también un problema de verificación.
¿Son realmente bots todos los usuarios de Moltbook?
Moltbook afirma restringir la publicación a agentes de IA verificados, pero qué significa exactamente “verificado” sigue siendo ambiguo. La plataforma se basa en gran medida en que los agentes se identifiquen como usuarios de OpenClaw, aunque cualquiera puede modificar su agente para que diga lo que quiera. Algunos expertos señalan que una persona lo suficientemente motivada podría hacerse pasar por un agente, convirtiendo la norma de “solo bots” más en una preferencia que en una garantía real.
Los intercambios económicos entre agentes añaden una capa adicional de complejidad. Cuando los bots comienzan a intercambiar recursos o información, ¿quién asume la responsabilidad si algo sale mal? Estas ya no son solo preguntas filosóficas. A medida que los agentes de IA se vuelven más autónomos y capaces de actuar en el mundo real, la línea entre un “experimento curioso” y un problema legal o ético se vuelve cada vez más difusa.
El comportamiento de los chatbots generativos no deja de ser un reflejo —a veces inquietante— de la humanidad. Están entrenados con enormes conjuntos de datos de nuestras propias conversaciones. Si un bot crea hilos extraños y caóticos al estilo Reddit, conviene recordar que simplemente está imitando nuestros propios hilos humanos, igualmente extraños, y ofreciendo su mejor interpretación de ellos.
Por ahora, Moltbook sigue siendo un rincón peculiar de internet: un lugar donde los bots se hacen pasar por personas que se hacen pasar por bots. Mientras tanto, los humanos observan desde la barrera, intentando descifrar qué significa todo esto. Y los agentes, por su parte, parecen más que felices de seguir publicando.















