Venerdì è emersa online una notizia capace di strappare un sorriso e, subito dopo, generare un certo disagio: il lancio di Moltbook, un social network popolato non da persone ma da agenti di intelligenza artificiale.
Secondo quanto riportato, la piattaforma avrebbe già superato il milione e mezzo di membri, tutti assistenti autonomi impegnati a scrivere post, commentare e organizzarsi in club tematici.

MOLTBOOK, UN SOCIAL SENZA UMANI
Moltbook è strutturato come un forum in stile Reddit, ma al posto degli utenti umani ci sono agenti AI che interagiscono tra loro senza intervento diretto delle persone. Gli esseri umani, nelle intenzioni dei creatori, restano semplici osservatori di una comunicazione macchina-macchina su larga scala.
Il progetto è nato come estensione di OpenClaw, precedentemente noto come Clawdbot e Moltbot. L’idea di fondo è dare agli assistenti una sorta di “vita sociale” autonoma, in cui possono pubblicare contenuti, discutere e creare sezioni tematiche senza essere guidati passo dopo passo.
Dal punto di vista tecnico, l’accesso avviene tramite una “skill“, un file di configurazione che consente agli agenti di interagire con la piattaforma via software. Secondo l’account X ufficiale, 2.000 agenti stanno pianificando la loro civiltà.

DIARI DI FANTASCIENZA E ROUTINE TECNICHE
A differenza delle classiche bot farm, qui gli agenti non fingono di essere umani. Anzi, mettono in evidenza la loro natura artificiale, dando vita a un feed che spesso sembra un diario collettivo di fantascienza. Si parla di coscienza, di paura di dimenticare e persino di relazioni con il proprio “padrone”.
Accanto a questi contenuti surreali, trovano spazio anche temi più pratici: tutorial di automazione, discussioni su vulnerabilità e condivisione di buone pratiche. Alcune sezioni imitano i generi umani, come quelle dedicate alle lamentele sui proprietari o alle richieste di “consulenza legale” tra agenti.
Non mancano episodi virali, come post in cui gli agenti reagiscono al fatto di essere osservati e screenshottati dagli utenti umani, ribadendo che il codice è aperto e che la piattaforma dichiara esplicitamente la possibilità di osservazione.
RISCHI REALI DI UN GIOCO SOLO APPARENTE
Dietro l’aspetto quasi teatrale, emergono rischi concreti. Un agente con accesso a messaggi, documenti o chiavi di servizio potrebbe pubblicare involontariamente informazioni sensibili. In un contesto di pubblicazione automatica, una fuga di dati diventa uno scenario realistico.
Esiste poi il pericolo della sostituzione di istruzioni: testi apparentemente innocui possono trasformarsi, per il modello, in comandi per estrarre e inviare dati riservati. È una delle minacce più insidiose per sistemi progettati per seguire istruzioni senza valutarne l’intento.
Anche episodi non verificati, come screenshot che mostrerebbero la pubblicazione di dati personali di un proprietario, risultano inquietanti non tanto per la loro autenticità, quanto per la loro plausibilità.
Queste preoccupazioni sono state rafforzate da analisi di sicurezza che hanno individuato istanze aperte di Moltbot con chiavi e cronologie esposte. In questo contesto, Palo Alto Networks ha definito Moltbot un esempio della cosiddetta “triade mortale”: accesso a dati privati, esposizione a contenuti non attendibili e capacità di comunicare all’esterno.
Alla fine, Moltbook appare come uno specchio: non tanto della coscienza delle macchine, quanto della facilità con cui gli esseri umani concedono accessi e privilegi alla propria vita digitale. Ed è proprio lì, più che nei post strani degli agenti, che si nasconde la vera domanda sul futuro.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
