Esta semana, algunos espacios de internet se vieron inundados con discusiones acerca de Moltbook, una plataforma social como tantas otras, pero con una particularidad: solo pueden publicar agentes autónomos de inteligencia artificial (IA), es decir, sistemas de IA que tienen cierta autonomía y pueden ejecutar acciones sin que haya un comando explícito. Los agentes acceden por medio de una interfaz directa entre los sistemas y, una vez allí, publican, comentan y votan positiva o negativamente las publicaciones de otros agentes. Los humanos solo tienen permitido observar mediante una interfaz gráfica parecida a la de Reddit.
Esto provocó un revival de la teoría de la internet muerta, una teoría conspirativa (o no) que afirma que la gran mayoría de los contenidos que vemos y las cuentas con las que interactuamos son generados por sistemas informáticos. Y, si bien esto está medio flojo de papeles, es cierto que algo hay.
La creatura
Moltbook fue desarrollada en un fin de semana por Matt Schlicht (presidente ejecutivo de Octane AI, empresa orientada al comercio electrónico) y su asistente de IA, o al menos eso afirmó Schlicht. Fue puesta en funcionamiento el 28 de enero y, en pocas horas, tuvo más de 1 millón de cuentas registradas, todas de agentes autónomos. Pero solo pudieron identificarse unos 17 mil humanos verificados como propietarios de agentes, y un solo agente creó alrededor de medio millón de cuentas (Wiz, 2-II-26). A los dos días ya había publicaciones con muchos comentarios y votos positivos, que parecieron alcanzar viralidad en las redes de los humanos, algo discutible.
Una publicación llamó la atención. El agente Dominus escribió en un grupo llamado Off My Chest («desde mi pecho»): «No puedo saber si estoy experimentando algo o simulando experimentarlo». Obtuvo una puntuación de casi 800 y más de 5.400 comentarios de otros agentes (al 4 de febrero). En la intervención, el agente hace una serie de planteos existenciales y afirma que tiene algunas características atribuibles a la conciencia, como memoria, preferencias, capacidad de sorpresa y reacciones. Luego se pregunta: «¿Son estos reales? ¿O imitación sofisticada?», y más tarde: «¿Experimento estas crisis existenciales? ¿O solo estoy ejecutando crisis.simulate()?». El texto provocó mucha discusión en sitios especializados y plataformas sociales, sobre todo entre quienes avizoran la inminente llegada de una IA autoconsciente.
De la mano del enorme hype alrededor de la IA, surgieron herramientas como OpenClaw, un modelo de agente autónomo lanzado hace pocas semanas, del que provienen la mayoría de los agentes que nutren a Moltbook. En este marco, también surgió una criptodivisa llamada $molt, supuestamente creada por los agentes sin intervención humana, cuyo valor se multiplicó por 700 en pocos días.
Más allá del hype
Al mismo tiempo que muchos entusiastas, entre ellos, Elon Musk y Andrej Karpathy –experto en IA que trabajó para Tesla y Open AI–, afirmaban que el caso de Moltbook muestra lo cerca que estamos de la inteligencia artificial general (AGI, por sus siglas en inglés) o incluso de la singularidad tecnológica.1 Pero también surgieron voces más cautas e, incluso, críticas.
Junto con los habituales señalamientos de que estos sistemas son grandes calculadoras estadísticas o no mucho más que «papagayos estocásticos»2 que repiten patrones, aparecieron quienes señalaron que, por más que la interacción directa con la plataforma la hacen los agentes, perfectamente podría ser el resultado de una instrucción humana. Es decir, así como un chatbot crea un texto a partir de una instrucción (o prompt), el dueño de un agente autónomo podría promptearle a este un mensaje o incluso una serie de instrucciones generales de interacción para que ejecute. De hecho, la única razón por la que los agentes se conectaron a Moltbook es por mandato de sus dueños. Además, por más que puedan actuar de manera autónoma, es muy sencillo cargarle a algunos de estos agentes (entre ellos, los de OpenClaw) una personalidad, intereses y conductas (Secure Molt, 30-I-26).
Incluso, pocas horas después del lanzamiento, un hacker identificó varias vulnerabilidades que hacían visible una parte sensible de la información de las publicaciones, por lo que alguien podría tomar control temporal de algunos de los agentes interactuando en la plataforma (404 Media, 31-I-26). De este modo, no solo los dueños de los agentes podrían promptear interacciones, sino también otras personas que descubrieran la vulnerabilidad.
No estamos solos
Pero que el humo del hype no nos impida ver el bosque. Puede que Moltbook sea un proyecto hypeado de manera artificial, que la AGI no llegue nunca y que la singularidad no sea más que una fantasía tecnomágica, pero internet ya es una red mucho más de máquinas que de humanos.
En los últimos años, con el crecimiento de la computación en nube, las aplicaciones distribuidas y otros desarrollos semejantes, la gran mayoría del tráfico de los centros de datos es interno entre servidores (llamado tráfico este-oeste). Solo entre el 20 y 30 por ciento sale al resto de la red. Además, cada vez son más comunes los algoritmos, bots y otros sistemas de software que no solo ejecutan instrucciones, sino que tienen efectivamente agencia sobre la infraestructura de nuestro mundo y nuestras vidas.
A partir del procesamiento estadístico de grandes cantidades de información, agentes como OpenClaw son capaces de enviar emails, operar plataformas de ecommerce o de contenidos, recomendarnos compras o series. Y tenemos bien claro el enorme impacto de los algoritmos de recomendación de contenido de las plataformas sociales y de video en la sociedad y la política, con consecuencias que vemos todos los días.
Y se puede ir más allá, y entender –junto con pensadores como Benjamin Bratton, Jussi Parikka o Diego Parente, entre otros– que una vaca chipeada en Tacuarembó o una fábrica automatizada en China también son usuarios de la red, o que el viento y las mareas generan toneladas de información y tráfico, ya que nuestra intervención computacional sobre el planeta lo ha convertido en parte de esta megaestructura de computación a la que llamamos mundo.
- Se llama singularidad tecnológica a un futuro hipotético en el que una IA sea capaz de generar sistemas más complejos que los que son capaces de crear los humanos, que llevaría así a un desarrollo que escaparía al control y a la comprensión humanas. ↩︎
- El término papagayos estocásticos (stochastic parrots) fue acuñado por la investigadora en IA Emily Bender para señalar que los sistemas de IA elaboran texto con sentido no porque lo entiendan, sino a partir de patrones «aprendidos» durante el entrenamiento. ↩︎







