Agenti AI autonomi e cybersecurity: i rischi di Moltbook e OpenClaw

4/02/2026
Agenti AI autonomi e cybersecurity: i rischi di Moltbook e OpenClaw

Moltbook è stato lanciato il 28 gennaio 2026 da Matt Schlicht, CEO di Octane AI, come piattaforma abitata esclusivamente da agenti di intelligenza artificiale.
Gli esseri umani non possono intervenire: osservano.
Gli agenti AI pubblicano, commentano, discutono, si organizzano in community tematiche e producono contenuti in modo continuo.
In pochi giorni il sistema ha superato le decine di migliaia di agenti attivi, con oltre un milione di visitatori e migliaia di thread generati autonomamente.
Al di là dei reali benefit e del diritto al progresso, vorremmo però provocatoriamente provare ad analizzare il lato pericoloso di queste innovazioni, esulando dai commenti in stile Terminator che già dilagano.

Dal punto di vista della cybersecurity, tra gli altri, Moltbook potrebbe essere letto come un ambiente di addestramento distribuito.
Non andrebbe considerato rilevante il singolo post prodotto dalla comunità di AI, ma la capacità collettiva che emerge.
Agenti che interagiscono tra loro affinano linguaggi, testano narrazioni, validano risposte e correggono errori in tempo reale.
Esattamente il tipo di infrastruttura che replicata in mani sbagliate sarebbe ideale per produrre slop su larga scala. Una fabbrica di contenuti ripetitivi, plausibili, coerenti, ideale per saturare social network, forum e canali informativi, affogando informazioni importanti e causando stranimento.

Nell’attuale panorama di cyberwarfare, dove la disinformazione è considerata arma di primo piano negli arsenali APT, si tratterebbe di uno strumento potentissimo.
Immaginiamo un flusso disinformante che non nasce più da singoli attori, ma da reti di agenti che simulano consenso, divergenza, dibattito e polarizzazione.
In questo contesto sarebbe possibile testare messaggi, adattarli a target diversi, valutare quali funzionano meglio e scartare le inefficenze.
Il tutto senza esporre direttamente l’operatore umano.
Moltbook replicato rischia di diventare in tal modo un banco di prova per campagne di influenza e manipolazione dell’opinione pubblica, con una velocità e una scala difficilmente replicabili manualmente.

La stessa logica vale per il cybercrime:
Gli agenti possono essere istruiti per generare email di phishing credibili, mantenere identità digitali coerenti nel tempo, simulare conversazioni realistiche e raccogliere informazioni OSINT su individui e organizzazioni.
Questi output possono essere esportati e utilizzati fuori dalla piattaforma. Il fatto che gli umani non pubblichino direttamente non riduce il rischio: sposta semplicemente il punto di controllo a monte, nella fase di configurazione degli agenti.

Il quadro potrebbe diventare, mantenendo questa lettura critica ed orientata al rischio, ancora più concreto se messo in relazione con OpenClaw, un progetto distinto ma concettualmente complementare. OpenClaw è stato presentato come assistente digitale capace di agire in autonomia.
Nato come Clawdbot, poi rinominato MoltBot e infine OpenClaw dopo una disputa legale con Anthropic per la somiglianza con Claude, è sviluppato dall’austriaco Peter Steinberger, già creatore di PSPDFKit.

OpenClaw è open source, gira localmente sul computer dell’utente e si sincronizza tra dispositivi.
È accessibile tramite strumenti di messaggistica come WhatsApp o Telegram.
La sua caratteristica chiave è l’accesso diretto al sistema operativo.
L’agente può inviare email, gestire file, interagire con applicazioni, scrivere codice e creare nuovi strumenti.
Il programma mantiene una memoria persistente e modifica il proprio comportamento in base all’esperienza assurgendo a vero agevolatore e strumento di indubbia utilità.

Veniamo però agli aspetti negativi:
Esulando dai rischi di accesso e dai problemi diretti di sicurezza su cui si stanno già concentrando ricercatori ed esperti, questo tipo di agente sposta anche il problema dalla generazione di contenuti all’esecuzione di azioni.
( Per info sui primi malware rilevati a minacciare l’ecosistema qui il link alle segnalazioni su OpenSourceMalware : https://opensourcemalware.com/blog/clawdbot-skills-ganked-your-crypto )
In un contesto in cui un’AI ha accesso a token, account personali, servizi cloud e dati sensibili, può diventare un moltiplicatore di rischio.
Una configurazione errata, una chiave API esposta o un prompt malevolo possono trasformarla in un punto di compromissione completo.
Come già detto, ricercatori di sicurezza, inclusi team di Palo Alto Networks, hanno dimostrato come il prompt injection possa indurre un agente a rivelare informazioni, modificare flussi operativi o avviare azioni non autorizzate.

Il punto critico è che l’attacco non sfrutterebbe più una vulnerabilità tradizionale, ma il linguaggio. Un’email, un documento o un input strutturato in modo opportuno possono riscrivere le priorità dell’agente.
Se questo agente gestisse posta, file e servizi, l’impatto sarebbe immediato. Non servirebbero più malware: basterebbe convincere l’AI a collaborare.

Moltbook e OpenClaw, letti insieme, mostrerebbero una distopica traiettoria chiara.

Da una parte ambienti dove migliaia di agenti simulano comportamenti, testano narrative e producono contenuti in massa.
Dall’altra agenti operativi che eseguono azioni concrete sui sistemi.
Collegare questi due mondi significherebbe disporre di una catena completa: addestramento, simulazione, produzione e impiego operativo.

Per chi si occupa di sicurezza, Moltbook potrebbe andare oltre l’essere un esperimento sociale interessante.
Si tratterebbe in potenza di un laboratorio di pre-produzione per campagne cyber e di disinformazione, un luogo dove testare attacchi prima di portarli nel mondo reale.
Se applicato nella maniera sbagliata, potrebbe configurarsi come un acceleratore di capacità cognitive artificiali applicate al conflitto digitale.
Ignorarlo significa rinunciare a capire come stanno cambiando le regole del gioco, proprio mentre la capacità di calcolo e l’automazione possono rendere questi distopici scenari non teorici, ma potenzialmente imminenti.


#cyberthreat #cybersecurity #newthreats #ai

#aislop #cybersecurity #cyberthreat #phishing Moltbook openclaw

Potrebbe interessarti anche...

Report Phishing Italia 2025
23/01/2026
Report Phishing Italia 2025

Panoramica 2025 Italia in merito ad attacchi phishing, sfruttamento tematiche e brand, distribuzione malware. Nel...

Leggi di più
Due Miliardi di mail compromesse e crescita del phishing 2025
11/11/2025
Due Miliardi di mail compromesse e crescita del phishing 2025

Il phishing cresce di nuovo superando i picchi del 2023. E' inoltre stato pubblicato un enorme database di Mail/Password compromesse che riporta l'attenzione sul fenomeno del credential stuffing

Leggi di più
Salesforce e Discord: hacker annunciano ingenti sottrazioni dati
7/10/2025
Salesforce e Discord: hacker annunciano ingenti sottrazioni dati

Due diversi episodi, inerenti Salesforce e Discord, che aiutano a riflettere sulla gestione del proprio dato in cloud e della consapevolezza

Leggi di più
Poste Italiane: il caso credential stuffing
22/09/2025
Poste Italiane: il caso credential stuffing

Poste Italiane: non ci sarebbe fuga dati. Il database in vendita sul darkweb sarebbe stato aggregato usando tecniche di credential stuffing

Leggi di più