
Per gran parte degli ultimi due decenni, la sicurezza informatica si è fondata su un presupposto fondamentale: le attività malevole possono essere individuate, analizzate e contrastate prima che producano danni significativi. Questo assunto ha modellato ogni aspetto del settore, dalla progettazione dei SOC e delle pipeline di allerta fino ai playbook di risposta agli incidenti e ai framework normativi. Non è mai stato un modello perfetto, ma ha funzionato ragionevolmente bene in un contesto in cui gli attacchi erano gestiti manualmente, orchestrati da operatori umani e limitati da vincoli di tempo, costi e risorse.
Il recente interesse per la breach and attack simulation (BAS) basata su agenti e per i framework di penetration testing alimentati da LLM riflette però un cambiamento più profondo: il passaggio verso l’individuazione e il concatenamento automatizzati degli attacchi. Un’evoluzione che va ben oltre gli ambienti di test. Ciò che un tempo era confinato a esercitazioni controllate e simulazioni statiche è oggi sempre più rappresentativo del modo in cui gli attacchi reali vengono progettati, raffinati ed eseguiti nel mondo reale.
L’emergere di strumenti offensivi basati su agenti — capaci di automatizzare ricognizione, selezione delle tecniche e movimento laterale — altera radicalmente l’equilibrio tra attaccanti e difensori. Quando queste fasi possono essere eseguite in modo continuo e autonomo, il difensore non si trova più a reagire a singoli incidenti, ma a fronteggiare un processo che opera alla velocità della macchina, apprende dai fallimenti e migliora a ogni iterazione. In questo scenario, i modelli difensivi fondati sull’osservazione del comportamento post-esecuzione iniziano a fallire non per errori di implementazione, ma perché strutturalmente collocati troppo a valle della catena d’attacco.
Questa dinamica è già evidente nella realtà operativa. Anche prima della diffusione di agenti autonomi, i difensori faticavano a rilevare e contenere le intrusioni in tempi tali da limitare in modo significativo gli aggressori. Le analisi pubbliche delle violazioni mostrano con regolarità tempi di permanenza misurati in settimane o mesi, con la scoperta spesso attribuibile a terze parti piuttosto che ai controlli interni. Non si tratta di una critica ai team SOC, ma della constatazione che rilevamento e risposta sono processi intrinsecamente dipendenti dall’uomo e, per definizione, successivi all’esecuzione.
L’automazione dal lato dell’attaccante non aumenta soltanto il volume delle operazioni: elimina l’asimmetria dei costi. L’aggressore sostiene un investimento iniziale per automatizzare scoperta e concatenamento, e poi riutilizza quella capacità su scala indefinita. Il difensore, al contrario, paga continuamente in termini di alert, elaborazione della telemetria, tempo degli analisti e carico cognitivo. Ogni nuovo segnale incrementa la complessità più di quanto aumenti la chiarezza. Con la crescita dell’automazione offensiva, il costo marginale della difesa cresce più rapidamente della sua capacità di risposta.
Gli attacchi living-off-the-land rappresentano un esempio emblematico di questa asimmetria. Quando gli aggressori utilizzano strumenti nativi e flussi di lavoro legittimi, i sistemi di rilevamento sono costretti a inferire l’intento anziché osservare comportamenti inequivocabilmente malevoli. Il risultato sono elevati tassi di falsi positivi e un crescente alert fatigue. Se questa fase di esplorazione viene automatizzata, gli agenti possono testare sistematicamente quali azioni generano segnalazioni, adattarsi alle soglie e mimetizzarsi nei modelli operativi attesi. Il rilevamento non diventa semplicemente più complesso: diventa economicamente insostenibile.
In molti ambienti enterprise di grandi dimensioni, i SOC gestiscono già migliaia di alert al giorno, dei quali solo una frazione minima viene analizzata in profondità. Con l’analisi automatizzata degli attacchi, anche un modesto incremento di segnali a bassa confidenza può costringere le organizzazioni ad alzare le soglie — accettando una maggiore quota di attività non rilevata — oppure ad ampliare la capacità analitica a costi che superano rapidamente l’investimento iniziale sostenuto dall’attaccante.
Le compromissioni della supply chain evidenziano lo stesso problema da una prospettiva diversa. In molti incidenti ampiamente documentati, i sistemi difensivi hanno funzionato esattamente come previsto: gli alert sono stati generati, la telemetria raccolta, le indagini avviate. Il problema era il fattore tempo. Una volta che il codice malevolo veniva eseguito attraverso meccanismi considerati affidabili, i difensori erano già entrati in una fase di risposta e contenimento. L’automazione accelera ulteriormente la capacità degli aggressori di individuare e sfruttare questi percorsi di esecuzione fidati, mentre i difensori restano ancorati a una visibilità post-esecuzione.
Anche la diffusione delle piattaforme di breach and attack simulation è indicativa di questo cambiamento. Le organizzazioni adottano il BAS non perché si fidino delle coperture statiche o delle garanzie teoriche, ma perché vogliono verificare se un attacco verrà effettivamente rilevato, non se sia astrattamente possibile. Il BAS continuo riflette il riconoscimento implicito che l’efficacia del rilevamento degrada nel tempo, con l’evoluzione degli ambienti e l’aumento della complessità. I BAS basati su agenti non fanno che accelerare il ritmo con cui questo degrado diventa evidente.
I modelli linguistici di grandi dimensioni introducono un ulteriore elemento di discontinuità. Storicamente, i difensori hanno fatto affidamento sul ragionamento umano come contrappeso all’automazione offensiva. Gli LLM erodono questo vantaggio: possono analizzare la telemetria, generare varianti e selezionare le azioni successive a una velocità superiore a quella con cui gli analisti riescono a smistare gli alert. Quando entrambe le parti operano al ritmo delle macchine, qualsiasi modello difensivo che richieda interpretazione umana dopo l’esecuzione diventa un collo di bottiglia.
I modelli linguistici di grandi dimensioni possono, naturalmente, anche accelerare la difesa. Ma lo fanno mettendo in discussione — e non rafforzando — l’assunto su cui si è basata la sicurezza informatica negli ultimi vent’anni.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsIvanti ha rilasciato una serie di aggiornamenti critici per arginare due vulnerabilità di sicurezza che hanno colpito Ivanti Endpoint Manager Mobile (EPMM). Si tratta di falle sfruttate attivamente in attacchi zero-day, una criticità tale da…
CulturaAlla fine degli anni 90, Internet era ancora piccolo, lento e per pochi. In quel periodo, essere “smanettoni” significava avere una conoscenza tecnica che sembrava quasi magia agli occhi degli altri. Non era raro che…
CulturaCerte volte, pensandoci bene, uno si chiede come facciamo a dare per scontato il mondo che ci circonda. Tipo, clicchiamo, scorriamo, digitiamo, e tutto sembra così naturale, quasi fosse sempre stato qui. E invece no,…
InnovazioneL’intelligenza artificiale è entrata nel lavoro senza bussare. Non come una rivoluzione urlata, ma come una presenza costante, quasi banale a forza di ripetersi. Ha cambiato il modo in cui le persone lavorano, sì, ma…
CybercrimeUna nuova minaccia si aggira, usando la nostra più grande debolezza: l’abitudine. Quante volte, infatti, capita di ritrovarsi a cliccare su caselle di verifica senza pensarci due volte? Ora, pare che i malintenzionati abbiano creato…