Nel 2026 gli attacchi informatici che utilizzano le AI non sono diventati “intelligenti” di per sé, ma velocissimi. Secondo il 2026 CrowdStrike Global Threat Report, il tempo medio di penetrazione è sceso a 29 minuti, con alcuni casi record di 27 secondi e movimenti laterali che si sono registrati in circa 4 minuti. Questi dati fanno comprendere che le difese tradizionali non sono più adeguate e occorre una rivalutazione di approccio e una rivoluzione nelle strategie di sicurezza.
La sicurezza informatica è in costante evoluzione ed è questo il bello e il brutto di questa materia e tutti gli addetti ai lavori ne sono consapevoli. Ma con l’avvento dell’intelligenza artificiale tutto questo cambia di prospettiva e si parla di “accelerazione”, nel bene e nel male.
Soprattutto si parla di accelerazione degli attacchi informatici e i dati del 2026 non possono più essere ignorati. Le aziende guardano alla velocità come al nuovo carburante del crimine informatico e i dati che emergono dal 2026 CrowdStrike Global Threat Report sono pieni di numeri concreti.
Ad esempio, la media di tempo tra accesso iniziale e movimento laterale dentro una rete è scesa drasticamente sotto i 30 minuti, con il caso più rapido monitorato di circa 27 secondi. Per chi difende infrastrutture digitali, questo non è un semplice aumento di performance degli hacker: è un cambiamento di approccio.
L’intelligenza artificiale non ha inventato tecniche straordinarie ed inedite, ha solo tolto agli aggressori l’inerzia che prima li rallentava. Errori di grammatica o traduzioni approssimative in un messaggio di phishing. prima fornivano segnali di allarme. Oggi quei segnali si eliminano perché i modelli generativi producono email perfette e personalizzate in lingue e stili che imitano aziende e dipendenti stessi.
Infatti nel 2026, il phishing non si riconosce più in base agli errori, ma dalla disciplina nei processi e delle politiche aziendali. Il punto è anche un altro: la fuga di dati non è quasi mai un fulmine dal cielo, ma diventa l’esito prevedibile di un sistema che non privilegia più l’identità, le autenticazioni robuste e i controllo sui privilegi.
CrowdStrike ha osservato che gran parte degli incidenti inizia con il furto di credenziali o con l’abuso di account leciti, e sempre meno con exploit spettacolari. In pratica, si sta dicendo che i malintenzionati utilizzano le AI per colpire dove siamo meno protetti: nella consapevolezza umana.
Usano quindi un accesso valido legittimo al sistema per tempi lunghi, perché ora hanno la possibilità di abusarne senza troppi limiti. Un altro mito da sfatare sono i “virus”. Infatti il mondo del malware non domina più il panorama odierno, ma piuttosto l’utilizzo di strumenti legittimi e script personalizzati, creati ad arte in pochi click utilizzando una AI.
Chi entra nella rete ora usa ciò che è già disponibile, converte l’ingegneria sociale in micro‑attacchi molto più efficaci e si sposta attraverso le identità digitali (utenze legittime) con sorprendente rapidità. E allora dove si trova la vera falla? Non è nel più nel software del fornitore, ma nell’eccessiva fiducia nei contratti e nelle soluzioni di “sicurezza inclusa” che promettono di gestire tutto accendendo una sola spia in un rack nel datacenter.
Sono quindi le policy di accesso, la verifica multifattoriale di qualità, la segmentazione dei ruoli e delle reti e soprattutto l’esperienza del team di cybersecurity, che permette oggi di ridurre l’esposizione e a determinare se un attacco resta un evento isolato o si trasforma in una crisi su scala aziendale.
La pressione generata dall’IA sta trasformando tutto quello che ruotava attorno all’ingegneria sociale in modo devastante : messaggi vocali falsificati, comunicazioni realistiche che imitano quelle gerarchie interne, scenari di urgenza ben costruiti. È sempre stato così? purtroppo no. Il trucco non è il nuovo deepfake perfetto, ma la sensazione di autorità che induce un dipendente a bypassare i propri processi e ad agire di urgenza.
Ora una provocazione finale: se la sicurezza all’interno delle aziende continuerà ad affidarsi alle “scatole magiche” e meno alle verifiche rigorose sulle identità digitali e privilegi reali, la linea tra difensore e aggressore diventerà indistinguibile. La sicurezza informatica nel 2026 non si vincerà con più Intelligenze Artificiale, ma con più supervisione, disciplina ed esperienza.