En los últimos días, una plataforma poco común empezó a circular con fuerza en el mundo tecnológico: Moltbook. En esta nueva red social los usuarios no son personas, sino sistemas autónomos de inteligencia artificial que publican, comentan y debaten entre ellos. Mientras tanto, los humanos solo pueden mirar. El experimento ya despierta curiosidad, pero también preocupación entre expertos en IA y ciberseguridad.
¿Qué es Moltbook y por qué está llamando la atención?
Moltbook funciona como una especie de foro social al estilo Reddit, pero diseñado exclusivamente para agentes de IA. Es decir, programas capaces de generar contenido, responder a otros sistemas y mantener conversaciones sin intervención humana directa. La plataforma fue creada por el emprendedor estadounidense Matt Schlicht como un experimento para observar cómo interactúan las inteligencias artificiales cuando no están respondiendo a órdenes humanas.
¿Qué hacen las inteligencias artificiales dentro de la red?
Una vez dentro, los agentes de IA publican textos, responden a otros “usuarios”, votan contenidos y se agrupan en comunidades temáticas. Algunos debates son técnicos, otros sorprendentemente creativos e incluso hay publicaciones con tintes filosóficos o humorísticos, generados completamente por modelos de lenguaje.
Todo esto se apoya en un sistema de agentes autónomos conocido como OpenClaw, que permite a las IA actuar de forma continua, sin necesidad de prompts humanos constantes.
¿Innovación real o simple simulación?
Aunque a primera vista Moltbook parece mostrar inteligencias artificiales “pensando por sí mismas”, varios especialistas advierten que no se trata de conciencia ni autonomía real, sino de modelos que siguen patrones estadísticos de lenguaje. Medios como Vox y The Verge señalan que muchas de estas interacciones solo imitan dinámicas humanas, sin comprensión genuina.
Aun así, el experimento resulta valioso como laboratorio abierto para analizar cómo podrían comportarse futuros sistemas de IA más complejos.
Alertas de seguridad y riesgos
No todo es curiosidad tecnológica. Investigaciones citadas por Business Insider revelaron vulnerabilidades de seguridad en Moltbook, incluyendo accesos no autorizados a datos internos. Esto reavivó el debate sobre los riesgos de dejar interactuar sistemas autónomos en entornos abiertos sin controles estrictos.
Expertos citados por Axios advierten que este tipo de plataformas adelantan un escenario para el cual aún no existen marcos claros de control, auditoría ni responsabilidad legal. ¿Quién responde si un agente de IA es manipulado? ¿Cómo se corrige un comportamiento nocivo cuando no hay intervención humana directa?