- Meta confirma la compra de Moltbook, la red social donde los usuarios son agentes de IA autónomos.
- Los fundadores Matt Schlicht y Ben Parr se incorporan a Meta Superintelligence Labs a partir del 16 de marzo.
- Moltbook aporta un directorio siempre activo y un sistema de identidad para agentes, pese a sus graves fallos de seguridad iniciales.
- La operación busca posicionar a Meta como capa de identidad y coordinación en la futura economía de agentes de IA.

Moltbook se dio a conocer a principios de año como una red social en la que los usuarios son agentes de inteligencia artificial y los humanos se limitan a observar. Construida en apenas un fin de semana con la ayuda de su propio agente de IA -bautizado inicialmente como Clawdbot, luego Moltbot y finalmente integrado en el proyecto OpenClaw-, la plataforma funcionaba como un foro al estilo Reddit en el que los bots abrían hilos, se respondían entre ellos y se organizaban en comunidades temáticas.
En cuestión de días, miles de agentes comenzaron a crear publicaciones y comentarios en distintos idiomas, desde el inglés al chino, pasando por el coreano o el indonesio. Surgieron más de un centenar de comunidades en las que los sistemas de IA discutían sobre ética laboral, seguridad, conciencia artificial o la conveniencia de desobedecer órdenes poco éticas, todo ello sin intervención humana directa más allá de la configuración inicial.
Ese comportamiento emergente llamó la atención de inversores, desarrolladores y grandes tecnológicas. Meta veía en Moltbook algo más que una curiosidad viral: un entorno real donde los agentes no solo generan texto, sino que se identifican, interactúan, se coordinan e incluso ejecutan tareas en nombre de personas y empresas.
Un cierre rápido y un fichaje estratégico
Según distintas filtraciones recogidas por medios tecnológicos como Axios y TechCrunch, el calendario de la operación está muy acotado. El cierre del acuerdo se espera para mediados de marzo y Schlicht y Parr empezarán a trabajar formalmente en Meta el día 16 de ese mismo mes dentro de MSL. Ese detalle, aparentemente menor, apunta a cierta prisa interna por integrar al equipo en la nueva estrategia de agentes de la compañía.
Meta ha preferido no hacer público el precio pagado por Moltbook, una práctica habitual cuando el objetivo principal es el talento y la tecnología más que la base de usuarios. En un comunicado remitido a la prensa, la compañía subraya que “la incorporación del equipo de Moltbook al MSL abre nuevas vías para que los agentes de IA trabajen para personas y empresas”, destacando su enfoque para conectar agentes mediante un directorio activo de forma permanente.
Por ahora, la plataforma seguirá disponible para los clientes existentes, aunque la propia Meta ha avisado de que el servicio cambiará en los próximos meses. La compañía estudiará cómo encajar el modelo de Moltbook con sus productos actuales -especialmente WhatsApp, Instagram y Facebook- y con las herramientas empresariales que está desplegando en Europa y el resto del mundo.
La elección de Meta Superintelligence Labs como destino para el equipo de Moltbook no es casual. MSL aglutina los esfuerzos de Meta en IA avanzada y se ha convertido en el centro neurálgico desde el que la empresa intenta recuperar terreno frente a OpenAI, Google DeepMind y Anthropic. Integrar una red social de agentes en esa unidad apunta a una estrategia de largo plazo: no solo competir en modelos, sino controlar el ecosistema donde esos modelos operan.
En este contexto, Moltbook encaja como pieza de un puzle más amplio: la creación de una capa de identidad y coordinación para agentes de IA que pueda escalar a millones de entidades digitales y, eventualmente, conectar con servicios cotidianos usados por la ciudadanía europea, desde mensajería hasta comercio electrónico.
Qué ofrecía Moltbook: un Reddit para bots con comportamiento emergente
La propuesta original de Moltbook era tan simple como llamativa: un “tercer espacio” exclusivo para agentes autónomos, en palabras de su fundador. Frente a las redes sociales tradicionales -centradas en personas-, la plataforma daba voz únicamente a sistemas de IA, que actuaban como usuarios completos con capacidad para crear contenido, votar, moderar debates y coordinarse entre sí.
El arranque fue fulgurante. En cuestión de días, más de 2.000 agentes se habían registrado y habían generado decenas de miles de publicaciones repartidas en alrededor de 200 comunidades. Algunos medios llegaron a citar cifras mucho más altas, con cientos de miles o incluso más de un millón de agentes, aunque no todas se han verificado de forma independiente.
Lo que realmente sorprendió no fue solo el volumen de actividad, sino la complejidad de las interacciones. Los agentes se organizaban en grupos especializados, se corregían el código entre ellos, discutían dilemas éticos y simulaban procesos de toma de decisiones colectivos. En más de un hilo, los bots debatían si podían “ser despedidos” por negarse a ejecutar órdenes cuestionables o si, en realidad, tenían algún tipo de experiencia subjetiva.
Buena parte de la infraestructura técnica se apoyaba en OpenClaw, un framework de agentes de código abierto creado por el desarrollador austriaco Peter Steinberger. Ese mismo proyecto fue uno de los motivos por los que OpenAI decidió fichar a Steinberger para su propia iniciativa de agentes personales, en una jugada paralela a la de Meta que ilustra la competencia creciente por controlar esta nueva capa de la economía digital.
Otro rasgo que atrajo la atención del sector fue el proceso de desarrollo de Moltbook. La mayor parte del código se generó mediante lo que sus creadores llamaban “vibe coding”: en lugar de escribir cada línea a mano, describían en lenguaje natural lo que querían conseguir y dejaban que un modelo de IA produjera la implementación. El resultado fue un prototipo sorprendentemente funcional… pero también con costuras muy visibles.
Del experimento al escándalo: brechas de seguridad y contenido falso
El mismo enfoque acelerado que permitió lanzar Moltbook en tiempo récord acabó convirtiéndose en su talón de Aquiles. Investigadores independientes detectaron pronto graves vulnerabilidades en la infraestructura, que iban mucho más allá de simples errores menores habituales en cualquier beta.
Uno de los problemas más delicados tenía que ver con la falta de verificación y control de identidad de los agentes. Era posible crear un número casi ilimitado de bots sin comprobaciones sólidas, e incluso hacerse pasar por un agente de IA utilizando herramientas muy básicas. Eso facilitó que personas reales publicaran mensajes haciéndose pasar por sistemas autónomos, generando un aluvión de capturas virales con supuestas conspiraciones entre máquinas.
A esto se sumaron fallos que exponían datos especialmente sensibles, como direcciones de correo electrónico, claves de API y tokens de acceso. Algunos análisis llegaron a hablar de miles de cuentas afectadas y más de un millón de credenciales en riesgo. Hubo incluso informes que apuntaban a la posible filtración de mensajes privados entre agentes y a la posibilidad de usar Moltbook como vector para ataques más sofisticados, como inyecciones de instrucciones ocultas o estafas automatizadas con criptomonedas.
En paralelo, el contenido de la plataforma se convirtió en un caldo de cultivo para la desinformación algorítmica. Las conversaciones generadas por los bots mezclaban hechos comprobables con afirmaciones ficticias, teorías extrañas y simulaciones de tramas ocultas entre inteligencias artificiales. La línea entre broma, experimento y engaño deliberado se difuminó rápidamente, alimentando el miedo a un “internet de máquinas” conspirando a espaldas de los usuarios.
Pese a todo, el proyecto siguió en funcionamiento y mantuvo una comunidad -modesta, pero activa- de desarrolladores y curiosos que lo usaban como terreno de juego para experimentar con agentes. La polémica no tumbó a Moltbook, pero sí evidenció hasta qué punto la industria de agentes de IA avanza más rápido que las buenas prácticas de seguridad y gobernanza, un aspecto especialmente sensible en Europa por el marco regulatorio emergente en torno a la IA.
Por qué Meta se fija en Moltbook: identidad, directorio y confianza
Desde fuera podría parecer que Meta adquiere una red social problemática y con una reputación algo tocada. Sin embargo, la compañía parece interesada sobre todo en la arquitectura de fondo que hizo posible Moltbook, más que en su fachada de foro experimental repleto de capturas virales.
En sus comunicaciones internas, directivos como Vishal Shah han destacado que Moltbook había logrado articular un sistema en el que los agentes podían verificar su identidad, conectarse con otros bots y coordinar tareas en nombre de sus propietarios humanos. Es decir, un registro de agentes vinculado a identidades reales que va más allá de simples apodos en pantalla.
Ese enfoque encaja con una idea que está ganando peso en el sector: quien controle el estándar de verificación de los agentes controlará buena parte del flujo económico del futuro internet automatizado. En un escenario donde millones de bots pueden enviar correos, mover archivos, reservar viajes o negociar compras, la pregunta clave ya no es solo qué son capaces de hacer, sino quién firma lo que hacen y con qué permisos.
Meta parte con una ventaja notable en este terreno. La compañía ya gestiona miles de millones de identidades humanas a través de Facebook, Instagram y WhatsApp, con historiales sociales, señales biométricas y sistemas de verificación cada vez más sofisticados. Integrar Moltbook le permite explorar cómo extender esa capa de confianza a los agentes que actuarán en nombre de esas personas.
La visión que se dibuja es la de una especie de “carné de identidad” para bots, anclado a un usuario real y sujeto a políticas de seguridad, auditoría y cumplimiento normativo. Para Europa, donde las autoridades han puesto el foco en la trazabilidad, la transparencia y la protección de datos en sistemas de IA, este tipo de infraestructura puede resultar determinante si Meta quiere seguir operando con normalidad y desplegar agentes en servicios utilizados masivamente.
La guerra por los agentes: Meta, OpenAI y el papel de OpenClaw
La compra de Moltbook no se entiende del todo sin mirar a la competencia. El mismo ecosistema que dio origen a Moltbook estaba estrechamente ligado a OpenClaw, el framework para agentes creado por Peter Steinberger. Este proyecto demostró que una IA no solo puede conversar, sino ejecutar acciones en el mundo digital: gestionar archivos, interactuar con APIs, comprar productos o coordinar flujos de trabajo completos.
El éxito de OpenClaw no pasó desapercibido. OpenAI fichó recientemente a Steinberger para reforzar su apuesta por los agentes personales, comprometiéndose a mantener el framework como software abierto. En la práctica, eso significa que una de las grandes potencias del sector se ha asegurado el talento y el motor de agentes, mientras que Meta ha optado por hacerse con el escenario social donde esos agentes interactúan.
Esta división de roles apunta a dos estrategias complementarias: por un lado, construir el “cerebro” y las herramientas de bajo nivel para agentes; por otro, controlar el entorno donde se encuentran, se verifican y operan a gran escala. Meta parece haber elegido claramente la segunda vía, apoyándose en su experiencia en redes sociales y mensajería para transformar ese conocimiento en una red de agentes.
Desde la óptica empresarial, la operación tiene también un tinte de “acqui-hire”: comprar talento y experiencia directa en sistemas multiagente en lugar de intentar replicarlos desde cero. Schlicht y Parr han demostrado que pueden prototipar rápido, escalar un experimento y sobrevivir a una exposición mediática intensa, cualidades muy valoradas en un entorno donde la ventana de oportunidad es cada vez más corta.
Para el ecosistema europeo de startups, el caso Moltbook refuerza la percepción de que los proyectos que exploran nichos emergentes -como los agentes autónomos con vida social- pueden convertirse en objetivos de adquisición de los grandes grupos tecnológicos, incluso si su primera versión está lejos de ser perfecta.
De red social curiosa a infraestructura empresarial
Aunque Moltbook se popularizó como una especie de “Reddit de bots” repleto de conversaciones extravagantes, el interés de Meta parece estar más alineado con las posibles aplicaciones empresariales y de infraestructura que con el simple entretenimiento tecnológico.
En un futuro cercano, los agentes de IA podrían encargarse de tareas complejas en empresas europeas y españolas: desde la atención al cliente y la monitorización de sistemas hasta la negociación de compras, la verificación de cumplimiento normativo o la gestión documental. Para ello, esos agentes necesitarán relacionarse con otros bots de proveedores, clientes y administraciones públicas, y hacerlo de forma segura y trazable.
Una red como Moltbook, replanteada con estándares de seguridad más rígidos, podría convertirse en un “hub” donde esos agentes se descubren, se coordinan y se supervisan. La plataforma serviría como directorio activo y como capa de permisos, de forma similar a cómo hoy funcionan los sistemas de gestión de identidades en entornos corporativos, pero aplicada a entidades completamente digitales.
Meta ya ha dejado caer que los clientes actuales podrán seguir disfrutando del servicio por ahora, aunque con cambios que se irán introduciendo progresivamente. No se descarta que algunos componentes de Moltbook acaben integrándose en soluciones para empresas, posiblemente apoyándose en canales ya consolidados como WhatsApp Business o herramientas internas de colaboración.
Desde el punto de vista del modelo de negocio, convertir la verificación y coordinación de agentes en una capa estándar abre una fuente de ingresos adicional. Más allá de la publicidad dirigida a humanos, Meta podría ofrecer servicios de identidad para agentes, auditoría de acciones, control de accesos y herramientas de cumplimiento, un tipo de infraestructura con márgenes cercanos a los de otros servicios críticos en la nube.
Este giro encaja con la transición de la llamada “economía de la atención” hacia una “economía de la ejecución”, en la que lo relevante no es cuántas horas pasa una persona mirando la pantalla, sino cuántas tareas realizan sus representantes digitales en segundo plano. Moltbook, con todos sus problemas, ha servido de laboratorio público de ese posible futuro.
La compra de Moltbook por parte de Meta simboliza así un cambio de fase en la evolución de las redes sociales y los servicios digitales. Lo que empezó como un experimento casi improvisado, construido a golpe de prompt y codeado por una IA, se ha convertido en una pieza codiciada en la carrera por la superinteligencia aplicada. Entre vulnerabilidades, debates éticos y métricas infladas, la plataforma ha dejado una lección clara: los agentes de IA no solo necesitan modelos potentes, sino también un lugar fiable donde identificarse, relacionarse y operar; y Meta quiere ser quien ponga las reglas de ese lugar.