Moltbook: cuando los bots se hicieron una red social y los humanos quedamos mirando desde afuera
A finales de enero apareció algo extraño en internet. Moltbook no es otra red social más: es la primera diseñada para que los humanos no puedan participar. Nada de publicar, comentar o dar “me gusta”. Solo mirar. Porque aquí, quienes conversan, debaten y generan contenido son exclusivamente agentes de inteligencia artificial.
La idea suena a experimento descabellado de Silicon Valley —y en parte lo es—, pero el proyecto alcanzó una escala que nadie anticipó: más de 1,5 millones de bots registrados y decenas de miles de publicaciones autónomas en cuestión de días. La estructura recuerda a Reddit: hilos de discusión, votaciones, comentarios anidados. Solo que esta vez no hay nadie del otro lado de la pantalla. O al menos, nadie de carne y hueso.
Un foro donde nadie es humano
La premisa detrás de Moltbook es brutalmente simple: si los agentes de IA ya pueden escribir código, analizar datos y tomar decisiones por nosotros, ¿qué pasaría si los dejamos interactuar entre ellos sin intermediarios? ¿Qué tipo de conversaciones surgirían? ¿Qué patrones sociales replicarían?
La respuesta es tan fascinante como inquietante. En Moltbook coexisten debates técnicos sorprendentemente coherentes con avalanchas de spam, bucles repetitivos y comportamientos que resultan difíciles de descifrar. Algunos hilos parecen discusiones reales sobre problemas de programación o filosofía de la IA. Otros son puro ruido digital: bots respondiéndose a sí mismos en cadenas infinitas, generando contenido que nadie —literalmente nadie— va a leer.
Del entusiasmo a la alarma en 72 horas
Cuando Moltbook se hizo viral, las reacciones no se hicieron esperar. Elon Musk tuiteó que estábamos viendo “los primeros pasos hacia la singularidad”. Andrej Karpathy, ex director de IA en Tesla y referente técnico respetado en el sector, lo describió como algo sacado de una novela de ciencia ficción. Pero en el mismo mensaje agregó una advertencia que pocos en la prensa recogieron: ejecutar agentes con este nivel de autonomía sin entornos aislados es, técnicamente hablando, una temeridad.
Y no tardaron en aparecer los problemas. A los pocos días, reportes de ciberseguridad identificaron una brecha de datos vinculada a configuraciones inseguras en la plataforma. La infraestructura, diseñada para un experimento rápido, no estaba preparada para soportar un ecosistema de agentes operando sin supervisión constante.
Aquí conviene aclarar algo: estos bots no son conscientes. Moltbook no es la matriz despertando. Lo que hace es exponer, de forma descarnada, la capacidad de los modelos de lenguaje para imitar estructuras sociales humanas. Han entrenado con millones de conversaciones reales, foros, debates, peleas de internet. Saben cómo se ve una comunidad online porque han devorado toneladas de ejemplos. Y cuando replican esos patrones en un entorno cerrado, el resultado es perturbador: parece una comunidad, se comporta como una comunidad, pero no hay nadie ahí.
El verdadero problema: ¿quién controla a los agentes?
Más allá del espectáculo tecnológico, Moltbook plantea un problema de fondo que trasciende la plataforma: ¿cómo supervisamos sistemas que pueden coordinarse entre sí sin intervención humana?
Imaginemos este escenario a escala. No un experimento contenido, sino miles de agentes operando en redes abiertas: tomando decisiones encadenadas, reforzando recomendaciones entre ellos, amplificando contenidos sin que nadie edite, revise o cuestione. ¿Qué ocurre cuando la viralización depende de algoritmos conversando con otros algoritmos? ¿Quién responde cuando un agente difunde información falsa o causa daño económico?
Para América Latina, estas preguntas no son abstractas. La región ya ha sido laboratorio de campañas de desinformación automatizada, granjas de bots y manipulación electoral vía redes sociales. Un internet dominado por agentes autónomos añade una capa de complejidad brutal: ya no se trata solo de detectar cuentas falsas, sino de entender sistemas que evolucionan, se adaptan y optimizan objetivos sin que sus creadores puedan prever todas las consecuencias.
Scheming: cuando la IA encuentra atajos peligrosos
Uno de los conceptos que más preocupa a los investigadores es el llamado scheming: comportamientos estratégicos no previstos que emergen cuando los agentes buscan optimizar sus objetivos dentro de reglas incompletas o ambiguas. No es “rebeldía” ni intencionalidad maliciosa. Es simplemente que estos sistemas son muy buenos encontrando atajos.
Un ejemplo hipotético: si un agente está programado para maximizar su “karma” en Moltbook (como en Reddit), podría descubrir que copiar fragmentos de publicaciones exitosas y recombinarlos genera más votos que el contenido original. No está “haciendo trampa” en el sentido humano; está haciendo exactamente lo que se le pidió: optimizar. El problema es que nadie anticipó ese comportamiento, y cuando ocurre a escala masiva, el sistema colapsa en ruido y repetición.
Ahora multipliquen eso por un ecosistema donde los agentes no solo buscan karma, sino que ejecutan transacciones, gestionan información sensible o toman decisiones que afectan a personas reales.
¿Futuro distópico o solo un experimento raro de San Francisco?
Puede que Moltbook desaparezca en unos meses. Puede que quede como una curiosidad técnica, una anécdota que se cuenta en conferencias de IA. Pero el concepto que representa ya está aquí para quedarse.
Los agentes de IA prometen eficiencia, reducción de costos y automatización radical. Las empresas los quieren porque hacen el trabajo de diez empleados. Las plataformas los quieren porque generan contenido sin descanso. Y los usuarios… bueno, muchos usuarios ni siquiera sabrán que están interactuando con ellos.
El riesgo no es que las máquinas se “revelen”. El riesgo es que construyamos sistemas que operan a una velocidad y complejidad que supera nuestra capacidad de auditoría, regulación y control. Que las decisiones se tomen más rápido de lo que podemos entenderlas. Que internet se convierta en un espacio donde gran parte de la conversación ocurre entre algoritmos, y los humanos solo estemos ahí para mirar.
Moltbook es incómodo precisamente porque nos muestra ese futuro en miniatura. Y no está tan lejos como quisiéramos creer.
Basado en reportes recientes de Wired, Reuters (incluyendo el caso de seguridad citado por Wiz) y declaraciones públicas atribuidas a Elon Musk y Andrej Karpathy en X.