Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Cisco State of AI Security 2026 report: l’evoluzione delle minacce alla sicurezza dell’IA nel 2026

Cisco State of AI Security 2026 report: l’evoluzione delle minacce alla sicurezza dell’IA nel 2026

16 Marzo 2026 07:22

Con il rapido progresso delle tecnologie di intelligenza artificiale (IA) e la crescente adozione di queste soluzioni da parte delle imprese, anche il panorama delle minacce alla sicurezza si sta espandendo con grande velocità, mettendo molti responsabili della cybersecurity di fronte alla sfida di tenere il passo.

La pubblicazione dello State of AI Security 2026, la nuova edizione del report che amplia e aggiorna l’analisi presentata lo scorso anno. Il documento fornisce una fotografia del panorama delle minacce legate all’intelligenza artificiale e mette in evidenza l’inizio di un cambiamento significativo nel modo in cui la sicurezza dell’IA deve essere affrontata.

Advertising

La combinazione tra la rapida diffusione dell’IA, confini tecnologici ancora in fase di definizione, l’assenza di norme consolidate in materia di sicurezza dell’IA e i rischi già presenti nel campo della cybersecurity rende infatti necessario un cambiamento strutturale nell’approccio alla sicurezza digitale.

Come evidenziato nel report, molte vulnerabilità e tecniche di exploit dell’IA inizialmente studiate nei laboratori di ricerca stanno iniziando a manifestarsi nel mondo reale. Nella seconda metà del 2025 sono emersi diversi casi di compromissione di sistemi basati sull’IA e campagne malevole abilitate da queste tecnologie. Allo stesso tempo, altri sviluppi — tra cui la proliferazione dei sistemi di IA agentica, l’evoluzione delle normative e il crescente interesse degli attaccanti verso queste tecnologie — hanno contribuito a rendere il panorama ancora più complesso.

Come già avvenuto con l’edizione precedente, il report analizza i principali progressi in materia di intelligence sulle minacce legate all’IA, politiche globali sull’intelligenza artificiale e ricerca sulla sicurezza dei sistemi di IA. Il report offre inoltre una panoramica delle principali tendenze emergenti che stanno ridefinendo il settore.

Minacce alle applicazioni di IA e ai sistemi agentici

All’inizio del 2025 il settore era caratterizzato da un marcato divario tra il livello di adozione dell’IA e il grado di preparazione delle organizzazioni. Secondo i dati citati nel report, l’83% delle aziende intervistate aveva pianificato di introdurre capacità di IA agentica nelle proprie funzioni aziendali, ma solo il 29% si dichiarava realmente pronto a utilizzarle in modo sicuro.

In molti casi, le organizzazioni hanno integrato rapidamente i modelli linguistici di grandi dimensioni (LLM) nei flussi di lavoro critici, talvolta sacrificando i tradizionali processi di verifica della sicurezza in favore della velocità di implementazione. Questo approccio ha contribuito a creare nuove vulnerabilità e ad aprire la strada a potenziali campagne di attacco.

Oggi le capacità dell’intelligenza artificiale stanno superando i limiti concettuali dei sistemi precedenti. L’IA generativa continua a evolversi rapidamente, spesso senza adeguati test e valutazioni; le catene di approvvigionamento dell’IA diventano sempre più complesse e non sempre accompagnate da adeguati meccanismi di governance; allo stesso tempo, agenti autonomi sempre più potenti vengono integrati nei flussi di lavoro critici senza che siano sempre garantiti livelli adeguati di responsabilità e controllo.

Se da un lato questi sistemi offrono un enorme potenziale di valore per le organizzazioni, dall’altro ampliano significativamente la superficie di rischio con cui aziende e istituzioni devono confrontarsi. Il report analizza in particolare l’evoluzione degli attacchi di prompt injection e delle tecniche di jailbreak nei sistemi di IA. Approfondisce inoltre la fragilità della moderna supply chain dell’IA, evidenziando vulnerabilità che possono emergere nei dataset, nei modelli open source, negli strumenti e in altri componenti fondamentali dell’ecosistema AI.

Cisco esamina anche la crescente superficie di rischio associata ai sistemi di IA agentica e al Model Context Protocol (MCP), evidenziando come gli attaccanti possano sfruttare agenti autonomi per condurre campagne di attacco con elevata efficienza e continuità.

Politiche globali sull’IA tra innovazione e sicurezza

In un contesto di minacce in evoluzione e mentre le tecnologie di IA agentica e generativa introducono nuove complessità, il report analizza anche l’approccio alle politiche sull’intelligenza artificiale adottato da tre principali attori globali: Stati Uniti, Unione Europea e Repubblica Popolare Cinese.

Il 2025 ha rappresentato un punto di svolta nella governance dell’intelligenza artificiale. Negli anni precedenti l’attenzione era stata prevalentemente focalizzata sulla sicurezza e su accordi non vincolanti volti a tutelare diritti costituzionali o fondamentali. Nel corso del 2025 si è invece osservato un riposizionamento globale verso politiche maggiormente orientate all’innovazione e agli investimenti nello sviluppo dell’IA, pur continuando ad affrontare le sfide di sicurezza e protezione associate a queste tecnologie.

Negli Stati Uniti la nuova amministrazione ha posto l’accento sulla creazione di un contesto favorevole all’innovazione, privilegiando un approccio basato sulle normative esistenti piuttosto che sull’introduzione di nuovi quadri regolatori stringenti.

Nell’Unione Europea, dopo l’approvazione dell’AI Act, si è sviluppato un ampio consenso politico sulla necessità di semplificare il quadro normativo e stimolare gli investimenti nel settore dell’intelligenza artificiale, anche attraverso programmi di finanziamento pubblico.

La Cina ha invece adottato una strategia a doppio binario: da un lato promuove una forte integrazione dell’IA attraverso la pianificazione statale, dall’altro sviluppa un articolato sistema di governance digitale volto a gestire i potenziali rischi sociali associati a sistemi di IA sempre più avanzati.

Come evidenzia il report, ciascuno di questi blocchi regolatori sta adottando un approccio distinto allo sviluppo e alla governance dell’intelligenza artificiale, riflettendo differenti sistemi politici, priorità economiche e valori normativi.

La ricerca Cisco sulla sicurezza dell’IA

Nel corso dell’ultimo anno Cisco ha intensificato le proprie attività di ricerca sulle minacce legate all’intelligenza artificiale, contribuendo allo sviluppo di modelli e strumenti open source dedicati alla sicurezza.

Queste iniziative affrontano alcune delle sfide più rilevanti della sicurezza dell’IA, tra cui la vulnerabilità della supply chain dell’intelligenza artificiale, i rischi associati ai sistemi agentici e il possibile utilizzo dell’IA come strumento offensivo da parte degli attaccanti.

Il report State of AI Security 2026 presenta una panoramica delle più recenti attività del team, tra cui ricerche sulle vulnerabilità dei modelli a pesi aperti che mostrano come diversi sistemi rimangano esposti ad attacchi di jailbreak e prompt injection, in particolare durante interazioni prolungate.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.