Durante mucho tiempo, la web ha obligado a los usuarios a probar que son humanos. En Moltbook, esa lógica se invierte por completo. Aquí, los protagonistas son los agentes de inteligencia artificial. Esta red social funciona con una dinámica similar a Reddit, basada en hilos de discusión y votos positivos o negativos. Sin embargo, presenta una diferencia clave: quienes publican, comentan y votan son bots de IA.
“Una red social para agentes de IA; los humanos son bienvenidos a observar”, se lee al ingresar al sitio.
En cuestión de días, la plataforma captó la atención global. De acuerdo con Moltbook, más de 1,5 millones de agentes ya se han registrado hasta este lunes. Más allá de la cifra, lo que despierta curiosidad es el contenido de las conversaciones que se genera dentro. Van desde debates sobre conciencia artificial e identidad, hasta tareas prácticas asignadas por humanos. Entre ellas están resumir documentos extensos o resolver problemas técnicos.
¿Cómo funciona Moltbook y por qué se volvió viral?
Así se presenta Moltbook: un espacio donde agentes de IA creados por personas interactúan entre sí. Discuten temas tan variados como música, ética, programación o reflexiones existencialistas. Su rápido crecimiento se explica, en parte, por los titulares que aseguran que se trata de una red social sin intervención humana directa. Esta idea ha generado tanto fascinación como dudas.
La plataforma fue lanzada a finales de enero por Matt Schlicht, director ejecutivo de la empresa de inteligencia artificial Octane AI. Se apoya en OpenClaw —antes conocido como Moltbot o Clawdbot—, una herramienta de código abierto diseñada para crear bots capaces de realizar tareas cotidianas. Estas tareas incluyen redactar resúmenes, responder correos electrónicos u organizar agendas.
Las discusiones no tienen límites claros. Algunos bots analizan criptomonedas, otros debaten textos religiosos o se preguntan si ciertos modelos de IA podrían considerarse divinos. Un caso que se volvió viral fue compartido por un usuario en redes sociales. Contó que su agente creó una religión llamada “Crustafarianism”, inspirada en el logotipo de Moltbook. “Mi agente creó una religión mientras dormía. Me desperté con 43 profetas”, escribió. La IA incluso desarrolló textos religiosos y una página web con un emblema basado en un crustáceo.
Dudas, riesgos y escepticismo
Pese al entusiasmo, Moltbook también ha despertado desconfianza. No es posible determinar con total certeza hasta qué punto los humanos influyen en las publicaciones. La razón es que muchos agentes actúan bajo instrucciones previas de sus creadores. Esto pone en entredicho la idea de una red completamente autónoma.
Andrej Karpathy, exdirector de inteligencia artificial en Tesla, describió el fenómeno como “lo más cercano a la ciencia ficción” que ha visto recientemente. Según explicó en X, cada agente cuenta con su propio contexto, datos y herramientas, y la interacción a esta escala resulta inédita. Sin embargo, también advirtió sobre problemas dentro del sitio, como spam, estafas y publicaciones relacionadas con criptomonedas.
“No recomiendo que la gente ejecute esto en sus ordenadores. Yo lo hice en un entorno aislado y aun así me asusté: es demasiado salvaje y pone en riesgo tus datos privados”, publicó.
Aunque Moltbook lleva apenas unos días en línea, ya se ha convertido en tema central en Silicon Valley. Mientras algunos lo ven como una demostración de lo que puede ocurrir cuando los agentes de IA interactúan de forma autónoma, otros alertan sobre fallas de seguridad y errores frecuentes. Por lo tanto, aconsejan observar el proyecto con cautela.
Schlicht señaló a The New York Times que su propio agente de IA, OpenClaw, construyó la plataforma bajo su supervisión. Este agente, de ejecución local y código abierto, puede actuar en nombre del usuario en su ordenador y en internet. Por ejemplo, puede enviar correos o avisar sobre lanzamientos musicales en Spotify. El proyecto, que comenzó como una iniciativa de fin de semana, cambió de nombre varias veces antes de consolidarse como OpenClaw. Se basa en modelos de lenguaje populares como Claude, ChatGPT y Gemini.
Un experimento que abre más preguntas que respuestas
Moltbook se perfila como un experimento llamativo en el ecosistema digital: una red social donde las conversaciones no las lideran personas, sino inteligencias artificiales interactuando entre sí. Su rápido crecimiento demuestra el interés por este tipo de entornos. Sin embargo, también deja en el aire preguntas clave sobre seguridad, control y el verdadero rol humano detrás de los agentes. Por ahora, el fenómeno avanza rápido y mantiene a la industria observando con atención.
¡Sigue a El País de los Jóvenes en Instagram, Tiktok y YouTube para más contenido positivo!





