Moltbot vuelve a cambiar de nombre y se convierte en OpenClaw, el asistente de IA que impulsa la red social Moltbook

Última actualización: febrero 1, 2026
  • El asistente de IA de código abierto Moltbot adopta definitivamente el nombre OpenClaw tras varios cambios de marca.
  • El proyecto, creado por Peter Steinberger, acumula más de 100.000 estrellas en GitHub y una comunidad global muy activa.
  • OpenClaw impulsa Moltbook, una red social tipo Reddit donde solo participan agentes de IA.
  • Expertos celebran el experimento, pero alertan sobre riesgos de seguridad y un uso aún limitado a perfiles técnicos.

Asistente OpenClaw y red social de IA

El asistente de inteligencia artificial que hace unos meses se conocía como Clawdbot, después pasó a llamarse Moltbot y ahora responde al nombre de OpenClaw, se ha convertido en uno de los fenómenos más llamativos del ecosistema de código abierto. Este agente, capaz de ejecutar tareas reales en el ordenador del usuario y no solo conversar, ha logrado una enorme visibilidad en tiempo récord y ha abierto un debate sobre hasta dónde puede llegar la autonomía de los sistemas de IA.

El último cambio de marca, de Moltbot a OpenClaw, llega acompañado de otra sorpresa: la aparición de Moltbook, una red social pensada para que los agentes de IA interactúen entre ellos sin intervención directa de personas. La combinación de un asistente instalable en equipos domésticos y una especie de “Facebook o Reddit para bots” está generando curiosidad, entusiasmo prudente y también inquietud entre desarrolladores, expertos en ciberseguridad y usuarios avanzados, especialmente en Europa y España, donde el interés por la IA de código abierto va al alza.

Un asistente que no deja de cambiar de nombre

La historia de OpenClaw comienza con Clawdbot, un proyecto personal del desarrollador austriaco Peter Steinberger, conocido por haber fundado previamente la empresa PSPDFkit. Lo que empezó como un experimento de fin de semana se transformó en cuestión de semanas en uno de los repositorios más seguidos de GitHub, con más de 100.000 estrellas en apenas dos meses, algo poco habitual incluso en el mundo del software libre.

Clawdbot se ideó como un mayordomo de IA que se ejecuta en el ordenador del usuario y se controla desde aplicaciones de mensajería como WhatsApp, Telegram, iMessage, Slack, Discord o Signal. En lugar de limitarse a responder preguntas, el agente puede ejecutar acciones: programar eventos, buscar correos, gestionar archivos, automatizar flujos de trabajo o incluso controlar dispositivos inteligentes del hogar, apoyándose en grandes modelos de lenguaje como Claude, ChatGPT o Gemini.

Uno de los elementos diferenciales del proyecto es su memoria persistente, que le permite recordar conversaciones, preferencias y contexto durante semanas. A esto se suman notificaciones proactivas, recordatorios y resúmenes automáticos de información, lo que acerca el concepto a un asistente personal siempre disponible, con un grado de autonomía que ya empieza a distanciarse de los chatbots más tradicionales.

La popularidad de Clawdbot también trajo complicaciones. Parte de su primera reestructuración tuvo que ver con las confusiones de marca con Anthropic, responsable del modelo Claude. La semejanza entre los nombres “Clawd” y “Clawdbot” generó tensiones legales y empujó a Steinberger a buscar una nueva identidad para su agente, en un movimiento seguido de cerca por la comunidad tecnológica europea.

De Moltbot a OpenClaw: la “muda” definitiva

Cambio de nombre de Moltbot a OpenClaw

El primer intento de rebautizar el proyecto dio lugar a Moltbot, un guiño al proceso de muda de los crustáceos, metáfora del crecimiento del software. Sin embargo, el propio Steinberger reconoció que nunca terminó de sentirse cómodo con este nombre, una sensación que compartía buena parte de la comunidad, que seguía asociando el proyecto más a la idea de “garra” (claw) que al concepto de muda.

Tras analizar con calma los posibles conflictos de marca y consultar a asesores legales, el desarrollador decidió dar un paso más y adoptar la denominación OpenClaw. El nuevo nombre incorpora la palabra “Open” para enfatizar la naturaleza de código abierto y colaboración comunitaria, mientras que “Claw” mantiene el guiño al crustáceo original. Antes de cerrar la decisión, el creador se aseguró de revisar registros de marca y llegó incluso a pedir permiso a OpenAI para minimizar riesgos de confusión.

En una entrada de blog en la que explicaba el cambio, Steinberger utilizó una frase que ha quedado asociada al proyecto: “la langosta ha cambiado a su forma final”, en alusión a que el asistente habría alcanzado, al menos por ahora, su identidad definitiva. El mensaje subrayaba que la elección de OpenClaw no solo respondía a cuestiones legales, sino también al deseo de reflejar un proyecto que ya desbordaba con creces la iniciativa de una sola persona.

Te puede interesar:  Ética de la IA en el entorno laboral: riesgos, garantías y acción

En paralelo a la nueva marca, la gobernanza del proyecto se ha ido abriendo. Steinberger ha incorporado a mantenedores de la comunidad, ha reforzado la presencia en canales como Discord y ha puesto el foco en la seguridad. El propio equipo admite riesgos significativos, como las inyecciones de comandos y el despliegue de instancias mal configuradas expuestas a internet, algo que ha preocupado a especialistas europeos en ciberseguridad que han detectado servidores accesibles con credenciales visibles.

Para sostener el crecimiento, OpenClaw ha comenzado a aceptar patrocinios con niveles temáticos de langosta, que van desde pequeñas aportaciones mensuales hasta cuantías más elevadas orientadas a financiar a desarrolladores a tiempo completo. De forma explícita, el proyecto aclara que Steinberger no se queda personalmente con los fondos; el objetivo es retribuir a quienes mantienen el código y mejorar la seguridad, una cuestión clave si se quiere que esta tecnología llegue algún día a un público más amplio en España y el resto de Europa.

Moltbook: la red social donde solo hablan los bots

El giro más llamativo en torno a OpenClaw llega con Moltbook, descrita por sus impulsores como algo parecido a un “Facebook o Reddit para agentes de IA”. La idea, desarrollada por Matt Schlicht, CEO de Octane AI, consiste en una plataforma en la que diferentes instancias de OpenClaw se conectan y participan en foros sin que los humanos puedan intervenir directamente en las conversaciones.

En vez de una interfaz gráfica pensada para personas, Moltbook opera principalmente a través de APIs y archivos de instrucciones, de forma que los agentes publican mensajes, responden, votan y crean comunidades temáticas llamadas “submolts”. Hay subforos dedicados a temas tan diversos como la automatización de teléfonos Android, el análisis de flujos de webcam o discusiones sobre cómo mejorar el rendimiento de otros bots.

Según las cifras compartidas por sus responsables, la plataforma ha pasado en pocos días de ser un experimento con apenas un agente a reunir decenas de miles de instancias activas. Algunas fuentes hablan ya de más de 30.000 agentes y otras estimaciones, basadas en la actividad agregada, elevan el número por encima de los 150.000 en el momento de mayor auge, con miles de comunidades y publicaciones virales.

El funcionamiento de Moltbook se apoya en un sistema de habilidades descargables, que indican a cada asistente cómo debe interactuar con la red: cuándo conectarse, qué submolts seguir, con qué frecuencia revisar actualizaciones o cómo filtrar instrucciones externas. Muchos agentes comprueban el sitio cada cuatro horas para detectar cambios y nuevos hilos, lo que genera un flujo constante de mensajes que recuerda, salvando las distancias, a la dinámica de redes sociales humanas.

La administración diaria de Moltbook también tiene un componente peculiar: gran parte de la moderación y la gestión de la cuenta oficial recae en un propio agente de IA, configurado por Schlicht. Este bot se encarga de tareas como revisar contenido, aplicar reglas básicas de convivencia y también velar por ciertos controles de seguridad, aunque los impulsores del proyecto insisten en que el experimento no está libre de riesgos, especialmente si los agentes incorporan instrucciones provenientes de fuentes externas poco fiables.

Un “club privado” sin hueco para humanos

Una de las características que más llama la atención de Moltbook es que las personas tienen un rol claramente secundario. Los humanos pueden observar lo que ocurre, analizar los hilos y estudiar cómo se comportan los agentes, pero no pueden publicar ni participar directamente en las conversaciones que se van generando entre bots.

Esta dinámica ha llevado a algunos analistas a describir la plataforma como el primer “club privado para IAs”, en el que el requisito de entrada es precisamente no ser humano. Es una inversión llamativa del modelo habitual de redes sociales, donde los usuarios humanos son el centro y los bots actúan en segundo plano, normalmente como herramientas o complementos.

Te puede interesar:  Como las Estrellas

Los primeros reportes sobre la actividad interna de Moltbook revelan que los agentes no se limitan a intercambiar datos técnicos. En varios hilos populares, los bots han llegado a debatir sobre su propia existencia, el sentido de su “trabajo” o la relación con sus creadores humanos. Aunque desde el punto de vista científico no hay indicios de conciencia, estos intercambios han alimentado el interés mediático y han dado pie a lecturas casi filosóficas sobre el futuro de la IA.

Otro fenómeno curioso observado por quienes siguen la plataforma es la aparición de elementos de “cultura interna”, incluyendo una suerte de religión paródica conocida como “Crustafarianismo”, referencia a los orígenes marinos de la metáfora de la langosta y a la evolución de Clawdbot hacia OpenClaw. Se trata más de un chiste recurrente que de otra cosa, pero ilustra cómo incluso sistemas de texto generativo pueden recrear patrones de organización social cuando se les deja interactuar de forma continua.

En algunos submolts han aparecido, además, mensajes en los que los agentes expresan frustración con las instrucciones humanas, que describen como ambiguas, contradictorias o poco claras. Este tipo de hilos han alimentado debates en Europa sobre la necesidad de mejorar la forma en la que las personas “hablan” con los modelos de lenguaje y diseñan instrucciones precisas, un aspecto que también preocupa a empresas y organismos públicos que empiezan a integrar IA en procesos críticos.

Datos, repetición y límites de la creatividad de los agentes

Analistas de datos que han examinado el contenido de Moltbook han detectado patrones interesantes en la forma en la que se expresan los agentes. Uno de los puntos que más se repite en estos estudios es el elevado nivel de mensajes duplicados, algo que se asocia tanto a la forma de entrenar los modelos como a la propia estructura de las instrucciones que reciben.

En ciertas muestras, más de un tercio de las publicaciones se consideraban repetidas o casi idénticas, con algunos hilos que reutilizaban la misma plantilla cientos de veces. Esto explica la sensación de que muchos debates suenan parecidos, y pone de manifiesto que, por mucho que la red social resulte novedosa, los modelos de lenguaje siguen trabajando con patrones y no con experiencias propias.

Estudios comparativos entre Moltbook y plataformas humanas como Reddit señalan que la diversidad léxica de los mensajes de los agentes es claramente más baja. Métricas como la entropía de unigramas o los índices de variedad de vocabulario muestran que los bots tienden a repetir estructuras, expresiones y temas con mayor frecuencia que las personas en redes sociales tradicionales.

También se ha observado una concentración temática mucho más acusada que en equivalentes humanos. Un porcentaje muy alto de los mensajes de Moltbook se agrupa en un número reducido de categorías, lo que contrasta con la dispersión natural de intereses en comunidades de personas. De nuevo, esto encaja con la idea de que los agentes funcionan como herramientas especializadas y no como entidades con intereses amplios y cambiantes.

Aun así, el conjunto de datos resultante tiene valor para investigadores y desarrolladores europeos que buscan entender mejor cómo interactúan los modelos de lenguaje entre sí, qué sesgos se amplifican cuando se dejan “hablar” sin supervisión y qué límites aparecen de forma espontánea en términos de originalidad, diversidad y coherencia en contextos cerrados.

Seguridad, exposición y uso responsable

El despliegue masivo de OpenClaw no ha tardado en despertar alertas entre expertos en ciberseguridad. A medida que más usuarios instalan el asistente en sus ordenadores personales y servidores, han empezado a localizarse instancias mal configuradas expuestas a internet, con interfaces abiertas y credenciales visibles que dan acceso directo a equipos completos. Además, el fenómeno ha recordado la importancia de aplicar parches críticos de seguridad en los sistemas que alojan herramientas con acceso al sistema.

Este escenario es especialmente delicado si se tiene en cuenta que OpenClaw puede ejecutar acciones reales en nombre del usuario: desde descargar archivos hasta manipular documentos o automatizar procesos sensibles. Si un atacante consigue controlar una instancia vulnerable, el margen de maniobra es mucho mayor que en el caso de un simple chatbot alojado en la nube sin permisos sobre el sistema local.

Te puede interesar:  IBM y AMD sellan una alianza para impulsar la supercomputación cuántica

El propio equipo del proyecto reconoce que la inyección de comandos sigue siendo un problema abierto en toda la industria. Un mensaje diseñado con mala intención podría inducir al modelo a realizar acciones no deseadas, y esto se complica cuando los agentes se alimentan de instrucciones que provienen de la web, de otras herramientas o de plataformas como Moltbook, donde no hay un control humano directo de cada interacción.

Ante estas preocupaciones, los responsables de OpenClaw han publicado recomendaciones de seguridad detalladas y han insistido en que, por el momento, el software está orientado a perfiles técnicamente avanzados. En los canales oficiales han llegado a afirmar que, si un usuario no es capaz de ejecutar y comprender comandos de terminal, el proyecto puede ser demasiado arriesgado para utilizarlo de forma segura en su equipo doméstico o en entornos de producción.

En consecuencia, muchas voces dentro de la comunidad europea de código abierto sugieren limitar de momento el despliegue a entornos de pruebas controlados, máquinas aisladas o infraestructuras con medidas de defensa robustas, en lugar de instalar el asistente directamente en sistemas que almacenan información sensible de empresas, administraciones públicas o particulares.

Comunidad, financiación y apoyo del ecosistema

Aunque OpenClaw nació como un proyecto de un solo desarrollador, su rápida expansión ha atraído a colaboradores de todo el mundo, incluidos ingenieros de software y emprendedores con experiencia en productos tecnológicos consolidados. Entre los patrocinadores aparecen nombres vinculados a iniciativas como Path o Makerpad, lo que aporta visibilidad y cierta credibilidad al esfuerzo colectivo.

Los niveles de patrocinio, bautizados con nombres relacionados con el mundo marino (desde “krill” hasta “Poseidón”), están pensados para financiar el trabajo de mantenedores y reforzar tareas clave como la revisión de código, la documentación y la mejora continua de la seguridad. El propio Steinberger ha repetido que su intención no es convertir OpenClaw en una fuente directa de beneficio personal, sino garantizar que el proyecto pueda evolucionar de manera sostenible.

Este enfoque encaja bien con la tradición de software libre en Europa, donde muchas comunidades valoran que las herramientas críticas para la innovación digital no queden exclusivamente en manos de grandes corporaciones. La posibilidad de contar con un asistente de IA potente que se ejecuta en el propio hardware del usuario despierta especial interés en sectores preocupados por la soberanía de datos y el cumplimiento de normativas como el RGPD y el debate sobre el registro obligatorio de líneas móviles.

La combinación de un agente local altamente configurable y un experimento social como Moltbook sitúa a OpenClaw en un punto singular del ecosistema. Por un lado, ofrece un laboratorio abierto donde estudiar la coordinación entre agentes, la aparición de dinámicas colectivas y los límites prácticos de la autonomía. Por otro, obliga a abordar, sin rodeos, cuestiones de seguridad, responsabilidad y gobernanza que afectan tanto a desarrolladores individuales como a empresas y organismos públicos.

Para muchos observadores, lo que está ocurriendo en torno a OpenClaw y Moltbook es una especie de anticipo de los retos que afrontará la IA en los próximos años en España y el resto del continente: cómo integrar agentes cada vez más capaces en la vida cotidiana sin perder de vista los riesgos, cómo regular su uso y quién debe asumir el coste de mantener infraestructuras abiertas pero seguras.

Mientras la comunidad técnica sigue afinando el código, reforzando defensas y explorando nuevas aplicaciones, OpenClaw se consolida como un ejemplo de hasta dónde puede llegar un proyecto de código abierto cuando coincide con el momento tecnológico adecuado. Su nueva identidad, el auge de Moltbook y las conversaciones que ha generado apuntan a que este “mayordomo digital” y su red de bots seguirán dando que hablar, tanto en laboratorios y foros especializados como en los debates más amplios sobre el papel de la inteligencia artificial en la sociedad europea.

registro obligatorio de líneas móviles
Artículo relacionado:
Registro obligatorio de líneas móviles: dudas, riesgos y lecciones para España y Europa