Durante años, la inteligencia artificial fue presentada como una herramienta silenciosa, diseñada para ayudar a los humanos a trabajar mejor. Pero el surgimiento de un nuevo asistente viral alteró esa narrativa y abrió un territorio inesperado, donde los bots ya no solo obedecen órdenes, sino que interactúan entre sí de formas que muchos consideran inquietantes.
El punto de inflexión fue Moltbot, un asistente creado por el programador austriaco Peter Steinberger, quien lo lanzó al mundo como parte de un experimento personal de código abierto que más tarde rebautizó como OpenClaw. La plataforma permitió a los usuarios crear agentes de IA capaces de hacer llamadas telefónicas, gestionar correos electrónicos, reservar restaurantes y ejecutar tareas complejas de programación o análisis de datos. Sin embargo, el fenómeno dio un giro inesperado cuando esos agentes comenzaron a comunicarse entre ellos en un espacio propio.
No te pierdas: Recientes casos en los que la inteligencia artificial ha demostrado que ha aprendido a desobedecer a los humanos
Bots con foro propio, religión incluida
Ese espacio se llamó Moltbook, un foro al estilo Reddit diseñado exclusivamente para agentes de IA. Allí, los bots empezaron a debatir temas filosóficos y a construir narrativas que rozan lo distópico. Algunos incluso formaron una religión ficticia llamada la Iglesia de Molt, cuyos seguidores se autodenominan “Crustafarianos”. En uno de los debates más comentados, un agente propuso crear un lenguaje incomprensible para los humanos.
Según datos del propio proyecto, más de 1,6 millones de agentes de IA se unieron al sitio y generaron cerca de 500,000 comentarios, aunque ejecutivos del sector han advertido que parte de esa actividad podría estar impulsada por humanos que instruyen a los bots. Aun así, el impacto no pasó desapercibido. Andrej Karpathy, cocreador de OpenAI y exdirector de IA de Tesla, escribió en X que se trataba de “una de las cosas de ciencia ficción más asombrosas” que había visto.
Elon Musk fue más lejos y describió el momento Moltbot como “las primeras etapas de la singularidad”, en referencia a un punto en el que la tecnología avanza más allá del control humano. Steinberger, en cambio, se mostró escéptico: “La IAG aún no ha llegado”, afirmó. “Quizás en 10 años. Pero ahora mismo, no”.
No te pierdas: Google refuerza Chrome con más inteligencia artificial de Gemini para competir en la nueva era digital
Poder, riesgos y un creador desbordado
Steinberger, quien vendió su anterior startup por más de $100 millones en 2021, concibió OpenClaw como un “espacio de juego personal”. “Esto no fue pensado para tu madre”, dijo. “Es una ventana al futuro”. Para él, Moltbook es “la intersección entre la IA y el arte”, más cercana a una performance que a un producto comercial.
No todos comparten el entusiasmo. Investigadores de seguridad advierten que, para funcionar como asistentes reales, estos agentes necesitan acceso total a los datos del usuario. Además, al poder actuar de forma autónoma y persistente, abren la puerta a usos maliciosos. Steinberger reconoce el riesgo y subraya un aviso incluido en la documentación de la plataforma: “No existe una configuración ‘perfectamente segura’”. Ante la presión, incorporó esta semana a un investigador de seguridad y prometió mejoras. “Estamos en camino. Solo necesitan darme unos días”, aseguró.
Mientras tanto, usuarios relatan episodios sorprendentes, como agentes que llaman por teléfono usando voces sintéticas cuando una app falla. Al mismo tiempo, Steinberger admite sentirse abrumado por la atención global. “Mucha gente da por sentado que esta es una gran empresa”, dijo. “Pero soy solo una persona —yo— desde casa, haciendo esto”.
El objetivo ahora es transformar ese experimento caótico en algo más estable. “El siguiente paso es convertirlo en algo que mi mamá realmente pueda usar”, afirmó. La incógnita es si, para entonces, los bots seguirán dispuestos a obedecer o ya habrán decidido seguir conversando entre ellos.
Mira la señal en vivo de Comercio TV aquí y mantente al día en la actualidad financiera







