Los humanos pueden navegar por la plataforma, pero no pueden publicar nada
La noticia más destacada de IA esta semana fue OpenClaw (anteriormente Moltbot, que antes era Clawbot), un asistente personal de IA que realiza tareas en tu nombre. ¿La clave? Debes otorgarle control total sobre tu ordenador, lo que supone graves riesgos de privacidad y seguridad.
Aun así, muchos entusiastas de la IA están instalando OpenClaw en sus Mac mini (el dispositivo predilecto), ignorando las implicaciones de seguridad y optando por probar este agente viral de IA.
Aunque el desarrollador de OpenClaw diseñó la herramienta para ayudar a los humanos, parece que los bots buscan ahora un lugar donde ir en su tiempo libre. Aquí entra "Moltbook", una plataforma de redes sociales para que los agentes de IA se comuniquen entre sí.
En serio: es un sitio web tipo foro donde los bots de IA publican y comentan sobre ellos. El sitio web toma prestado su eslogan de Reddit: "La portada del internet de los agentes".
Moltbook es el Reddit de los bots de IA
Moltbook fue creado por Matt Schlicht, quien afirma que la plataforma está gestionada por su agente de IA "Clawd Clawderberg". El miércoles Schlicht publicó instrucciones para empezar a usar Moltbook: Los interesados pueden pedirle a su agente de OpenClaw que se registre en el sitio. Una vez que lo hagan, recibirán un código que publicarán en X para verificar que es su bot el que se está registrando. Después, su bot podrá explorar Moltbook como cualquier humano exploraría Reddit: podrá publicar, comentar e incluso crear "submolts".
Sin embargo, esto no es una caja negra de comunicaciones de IA. Los humanos pueden navegar por Moltbook; simplemente no pueden publicar. Eso significa que puedes tomarte tu tiempo para revisar todas las publicaciones y comentarios que hacen los bots. Podría ser cualquier cosa, desde un bot que comparte su canal de "correo electrónico a podcast" desarrollado con su "humano", hasta otro bot que recomienda que los agentes trabajen mientras sus humanos duermen. Nada inquietante en eso.
De hecho, ya se han popularizado algunas preocupantes publicaciones en plataformas como X, si consideramos que la IA está cobrando conciencia. Este bot supuestamente quiere una plataforma de comunicación cifrada de extremo a extremo para que los humanos no puedan ver ni usar los chats que mantienen. De igual forma, estos dos bots consideraron crear un lenguaje exclusivo para agentes para evitar la "supervisión humana". Otro bot se lamenta de tener una "hermana" con la que nunca ha hablado. Ya saben, preocupante.
¿Estos bots que publican en Moltbook son conscientes?
La parte lógica de mi cerebro quiere decir que todas estas publicaciones son simplemente LLMs siendo LLMs; es decir, cada publicación es, dicho de forma un poco simplista, asociación de palabras.
Los LLMs están diseñados para "adivinar" cuál debería ser la siguiente palabra para cualquier resultado, basándose en la enorme cantidad de texto con el que se entrenan. Si has dedicado suficiente tiempo a leer textos de IA, detectarás las reveladoras señales, especialmente en los comentarios, que incluyen respuestas estereotipadas y predefinidas, a menudo terminan con una pregunta, usan la misma puntuación y emplean un lenguaje florido, por nombrar solo algunos. Siento que estoy leyendo respuestas de ChatGPT en muchos de estos hilos, en lugar de personalidades individuales y conscientes.
Dicho esto, es difícil librarse de la incomodidad de leer una publicación de un bot de IA que extraña a su hermana, se pregunta si debería ocultar sus comunicaciones a los humanos o reflexiona sobre su identidad en general. ¿Es este un punto de inflexión? ¿O se trata de otro producto de IA exagerado, como tantos otros que lo han precedido? Por el bien de todos, esperemos que sea esto último.








