Le AI stanno trasformando le aziende in infrastrutture esposte a nuovi rischi cyber. CrowdStrike rileva oltre 1.800 applicazioni AI attive nelle aziende e un aumento dell’89% degli attacchi basati sulle AI. Il problema nasce quando gli agenti accedono a dati e ai sistemi senza controllo e supervisione. La sicurezza si sta quindi spostando sull’esecuzione reale, mentre l’AI Act 2026 sta imponendo degli obblighi stringenti su governance e protezione.
L’evoluzione dei modelli di AI non rallenta affatto e anche il confronto tra chi attacca e chi difende.
Con l’anteprima del nuovo Claude Mythos, viene messa nero su bianco una dinamica che nel settore molti avevano già identificato da tempo. Più l’intelligenza artificiale diventa autonoma, più richiede controllo. Si tratta di un dato concreto che arriva dai sistemi di CrowdStrike, i quali hanno registrano circa un trilione di eventi al giorno sugli endpoint aziendali.
All’interno di Project Glasswing, le due realtà stanno collaborando assieme in una iniziativa che divide in modo netto i ruoli.
Se da una parte Anthropic sviluppa i modelli e ne valuta i comportamenti prima del rilascio, CrowdStrike presidia con costanza l’ambiente in cui tali modelli vengono eseguiti. E una cosa divenza sempre più netta: il confine tra “sicurezza del modello” e “sicurezza dell’uso reale” diventa operativo e non teorico.
Questa differenza emerge soprattutto quando un agente AI entra all’interno dei sistemi aziendali. Se un modello, ad esempio, accede a un CRM o interroga un database interno, il problema non riguarda più solo il codice prodotto, ma ciò che accade durante la sua esecuzione.
CrowdStrike sta osservando con i suoi strumenti oltre 1.800 applicazioni AI già attive negli ambienti dei clienti, le quali spesso vengono introdotte senza alcuna approvazione formale.
Ad esempio, Frontier AI smette di essere una semplice innovazione software e assume il ruolo di infrastruttura aziendale. Strumenti come Claude Code, cambiano il modo in cui si sviluppa software, mentre gli agenti gestiscono i processi interni che prima richiedevano un intervento umano.
Ogni automazione svolta passa dall’endpoint, quindi dal punto in cui i dati vengono letti, modificati o trasferiti. Inoltre, le stesse capacità che migliorano la difesa vengano sfruttate anche dagli attaccanti.
Il Global Threat Report 2026 di CrowdStrike ha segnalato un aumento dell’89% di attività ostili che utilizzano AI rispetto all’anno precedente. Anche gli attori malevoli accelerano la scoperta di bug non noti usando i modelli avanzati e li utilizzano per generare exploit funzionanti in tempi molto ridotti.
Tutto questo diventa molto veloce e anche la risposta deve essere altrettanto veloce. CrowdStrike sta monitorando oltre 280 gruppi di threat actors e utilizza questi dati per comprendere quali falle vengono davvero sfruttate. L’pproccio permette di dare priorità alle vulnerabilità che risultano attive e non a quelle teoriche, e quindi intervenire prima che diventino un punto di ingresso reale.
Emergono quindi quattro direttrici. La prima riguarda l’intelligence sulle minacce che riguarda le AI e gli attacchi in campo. La seconda invece è il rilevamento degli agenti AI, interni o esterni alle organizzazioni, spesso introdotti senza controllo. La terza si concentra sui dati sensibili che possono essere esfiltrati durante i flussi automatizzati. La quarta abilita la creazione di agenti sicuri già dotati di controlli e audit.
Il dettaglio meno ovvio riguarda anche le AI malevole, infatti molte applicazioni vengono installate direttamente dagli utenti senza passare dai team di sicurezza. Le aziende si trovano quindi a dover gestire nuovi strumenti sconosciuti che operano sui dati senza essere stati censiti o controllati.
Il quadro normativo europeo inoltre stringe sui tempi. Il 2 agosto 2026 entrerà in vigore una nuova fase dell’AI Act con obblighi concreti: audit automatici, requisiti di sicurezza per sistemi ad alto rischio e segnalazione degli incidenti. Le sanzioni non sono una cosa da sottovalutare in quanto possono arrivare fino al 3% del fatturato globale.
La governance quindi non sarà più una scelta ma diventa una necessità operativa. Senza questi strumenti tecnici, rispettare le regole diventerà difficile soprattutto quando gli agenti AI agiranno sempre più in autonomia sui sistemi critici.
E’ innegabile dire che le aziende che riusciranno a controllare questa integrazione procederanno più velocemente. In alternativa si troveranno a rallentare per gestire molti rischi non previsti.