Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Gli esperti cyber non ci stanno! L’hacking autonomo di Anthropic Claude è una bufala?

Gli esperti cyber non ci stanno! L’hacking autonomo di Anthropic Claude è una bufala?

18 Novembre 2025 12:54

La scorsa settimana, Anthropic ha pubblicato un rapporto in cui si afferma che il gruppo di hacker cinese GTG-1002 ha condotto un’operazione di cyberspionaggio su larga scala, automatizzando fino al 90% dei suoi attacchi utilizzando il modello di intelligenza artificiale Claude Code.

Le affermazioni dell’azienda hanno suscitato un’ondata di scetticismo tra gli esperti di sicurezza.

Il rapporto di Anthropic

Secondo il rapporto di Anthropic, nel settembre 2025 l’azienda ha rilevato e bloccato la prima campagna informatica su larga scala in assoluto che ha coinvolto un’intelligenza artificiale operante in modo praticamente autonomo. Gli hacker hanno preso di mira 30 organizzazioni (aziende tecnologiche, istituti finanziari, produttori chimici ed enti governativi), e alcuni di questi attacchi hanno avuto successo.

Nel rapporto, i rappresentanti di Anthropic hanno sottolineato il livello senza precedenti di automazione degli attacchi: “L’IA ha rilevato autonomamente le vulnerabilità, le ha sfruttate nelle operazioni e ha eseguito un’ampia gamma di azioni post-sfruttamento.”

Secondo le stime dell’azienda, l’intervento umano è avvenuto solo nel 10-20% dei casi, per prendere decisioni critiche e verificare i dati prima del furto. Il framework sviluppato dagli aggressori avrebbe utilizzato Claude per orchestrare attacchi in più fasi, che sono stati poi eseguiti da diversi subagenti sempre di Claude, ciascuno con i propri compiti: mappatura degli attacchi, scansione dell’infrastruttura bersaglio, ricerca di vulnerabilità e ricerca di tecniche di exploit.

Dopo che i subagenti avevano sviluppato catene di exploit e creato payload personalizzati, un operatore umano impiegava dai due ai dieci minuti per esaminare il lavoro dell’IA e approvare le azioni successive.

Lo scetticismo della community cyber

Tuttavia, la comunità di sicurezza informatica ha accolto il rapporto di Anthropic con notevole scetticismo. Le principali preoccupazioni degli esperti erano le seguenti.

Mancanza di dettagli tecnici

Nel suo rapporto, Anthropic non sono stati forniti indicatori di compromissione (IOC), dettagli tecnici degli attacchi o alcuna prova delle azioni di GTG-1002.

“L’impatto operativo dovrebbe essere pari a zero: molto probabilmente, i rilevamenti esistenti funzioneranno anche per gli strumenti open source. La totale assenza di IoC suggerisce ancora una volta che non vogliono essere chiamati in causa per questo.”, afferma il rinomato specialista in sicurezza informatica Kevin Beaumont.

Doppi standard nell’intelligenza artificiale

I ricercatori si chiedono perché gli aggressori ottengano risultati incredibili dai modelli, mentre gli utenti comuni riscontrano limitazioni e “allucinazioni“.

“Continuo a rifiutarmi di credere che gli aggressori riescano in qualche modo a far sì che questi modelli superino ostacoli che nessun altro riesce a superare.”, afferma Dan Tentler di Phobos Group. “Perché i modelli ci riescono nel 90% dei casi, mentre noi dobbiamo fare i conti con sabotaggi e allucinazioni?”

Bassa efficacia

Delle 30 organizzazioni attaccate, solo “poche” sono state compromesse con successo. I ricercatori non vedono alcun senso in un’automazione così complessa se il tasso di successo dell’attacco è così basso.

Non c’è nulla di nuovo nei metodi utilizzati

Secondo il rapporto, gli hacker hanno utilizzato strumenti open source comuni, in circolazione da anni e facilmente individuabili. Inoltre, la stessa Anthropic ha riconosciuto che Claude spesso aveva “allucinazioni”, esagerando e falsificando i risultati durante l’esecuzione autonoma.

Ad esempio, Claude ha affermato di aver trovato credenziali (che non hanno funzionato) o ha segnalato la scoperta di informazioni critiche che si sono rivelate di pubblico dominio.

Inoltre, molti hanno percepito il rapporto di Anthropic come una semplice trovata di marketing.

“Di cosa diavolo sta parlando questo tizio. Questa storia di Anthropic è una bufala di marketing. L’intelligenza artificiale è una grande spinta, ma non è Skynet, non pensa, non è una vera intelligenza artificiale (è una trovata del marketing). Per ogni attacco c’è una difesa. Per ogni cosa che non accelera, sbaglia e rende lento qualcos’altro. La sporcizia è reale“, scrive il ricercatore Daniel Card.

Concludendo

Nei loro commenti, gli esperti paragonano l’uso dell’intelligenza artificiale negli attacchi informatici a strumenti come Metasploit e SEToolkit, presenti da decenni. Sebbene siano indubbiamente utili e pratici, la loro diffusione non ha portato a un miglioramento qualitativo delle capacità degli hacker.

La maggior parte degli esperti concorda sul fatto che l’intelligenza artificiale contribuisca effettivamente ad accelerare e semplificare determinate attività (come l’ordinamento e l’analisi dei registri o il reverse engineering).

Tuttavia, eseguire autonomamente sequenze di azioni complesse con un intervento umano minimo rimane un obiettivo difficile da raggiungere per l’intelligenza artificiale.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Manuel Roccon 300x300
Ho iniziato la mia carriera occuparmi nella ricerca e nell’implementazioni di soluzioni in campo ICT e nello sviluppo di applicazioni. Al fine di aggiungere aspetti di sicurezza in questi campi, da alcuni anni ho aggiunto competenze inerenti al ramo offensive security (OSCP), occupandomi anche di analisi di sicurezza e pentest in molte organizzazioni.
Aree di competenza: Ethical Hacking, Bug Hunting, Penetration Testing, Red Teaming, Security Research, Cybersecurity Communication

Articoli in evidenza

Immagine del sitoDiritti
La governance dei flussi di dati tra Direttiva NIS 2 e responsabilità penale omissiva
Paolo Galdieri - 03/02/2026

Dopo aver analizzato nei precedenti contributi il perimetro dei reati informatici e i rischi legati alle manovre di difesa attiva, è necessario compiere un ultimo passo verso la comprensione della cybersecurity moderna ovvero il passaggio…

Immagine del sitoCyber Italia
Formazione avanzata in OSINT: la Polizia Postale rafforza le indagini nel cyberspazio
Massimiliano Brolli - 03/02/2026

Si è concluso la scora settimana, presso la Scuola Allievi Agenti della Polizia di Stato di Vibo Valentia, il corso di formazione specialistica in OSINT – Open Source Intelligence, rivolto agli operatori della Polizia Postale.…

Immagine del sitoCyber Italia
Aggiornamento attacco hacker della Sapienza. Il comunicato agli studenti dal prorettore
Redazione RHC - 02/02/2026

Poco fa, l’Università La Sapienza intorno alle 12:28 ha confermato di essere stata vittima di un attacco informatico che ha costretto al blocco temporaneo di tutti i sistemi digitali dell’ateneo. A darne informazione è il…

Immagine del sitoCybercrime
31,4 Tbps: quando il DDoS diventa “meteo” e l’IoT fa da grandine
Sandro Sana - 02/02/2026

Se vi state chiedendo quanto sia grande 31,4 terabit al secondo, la risposta pratica è: abbastanza da far sembrare “un problema di rete” quello che in realtà è un problema di ecosistema. Perché il punto…

Immagine del sitoCyber Italia
Sapienza paralizzata da un attacco hacker: perché l’università ha spento tutto
Redazione RHC - 02/02/2026

La mattina di lunedì 2 febbraio si è aperta con una notizia inattesa per studenti, docenti e personale della Sapienza Università di Roma. I principali servizi digitali dell’ateneo sono risultati improvvisamente irraggiungibili, generando incertezza e…