Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Desktop
Banner Ransomfeed 320x100 1
L’AI non è affidabile come credi: i rischi nascosti dei LLM senza una buona governance

L’AI non è affidabile come credi: i rischi nascosti dei LLM senza una buona governance

27 Gennaio 2026 10:15

L’adozione di modelli linguistici di grandi dimensioni (LLM) senza un’adeguata governance, verifica e supervisione, rischia di esporre a danni legali, finanziari e di reputazione.

Tale dato emerge dal report “Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models“, l’ultima ricerca Trend Micro, leader globale di cybersecurity.

I sistemi di intelligenza artificiale possono generare risultati diversi a seconda della posizione geografica, della lingua, della progettazione del modello e dei controlli integrati. Nei settori dove si lavora a contatto con i clienti o si prendono decisioni importanti, queste incoerenze possono minare la fiducia, allontanare da regolamenti locali o norme culturali e portare a costose conseguenze per il business.

Lo studio Trend Micro ha coinvolto oltre 100 modelli di intelligenza artificiale e ha utilizzato più di 800 prompt mirati progettati per valutare i bias, la consapevolezza politica e culturale, i comportamenti di geofencing, i segnali di sovranità dei dati e le limitazioni contestuali. Sono stati condotti migliaia di esperimenti, per misurare come gli output cambiano nel tempo e nei luoghi e sono stati analizzati più di 60 milioni di token di input e oltre 500 milioni di token di output.

I risultati rivelano che prompt identici possono produrre risposte diverse a seconda dell’area geografica e dei modelli e persino variare nel corso di interazioni ripetute con lo stesso sistema. In scenari politicamente critici, come nel caso di territori contesi o di identità nazionale, i modelli hanno mostrato chiare differenze di allineamento a seconda del luogo. In altri test, i modelli hanno restituito risultati obsoleti o incoerenti in aree che richiedevano precisione, ad esempio calcoli finanziari e informazioni dove il tempo giocava un ruolo chiave.

“In molte organizzazioni, si pensa che l’intelligenza artificiale si comporti come un software tradizionale e che lo stesso input produca in modo affidabile lo stesso output”. Afferma Marco Fanuli, Technical Director di Trend Micro Italia. “La nostra ricerca mostra che questo pensiero non è corretto. I LLM possono fornire risposte diverse in base all’area geografica, alla lingua, ai guardrail e possono anche cambiare da un’interazione all’altra. Quando i risultati dell’intelligenza artificiale vengono utilizzati direttamente dai clienti o per prendere decisioni di business, il rischio è di perdere il controllo sulla comunicazione, sulla compliance e sul rispetto delle norme culturali.”

Lo studio evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o utilizzano l’intelligenza artificiale in diverse aree geografiche. Un servizio basato sull’intelligenza artificiale potrebbe essere regolamentato da diversi quadri giuridici, politici e socioculturali. Le criticità coinvolgono anche il settore pubblico. In questo caso, i risultati generati dall’intelligenza artificiale potrebbero essere interpretati come una guida ufficiale e la dipendenza da modelli non localizzati o non verificati potrebbe introdurre rischi di sovranità e di accessibilità.

“L’intelligenza artificiale non dovrebbe essere trattata come uno strumento di produttività plug-and-play”. Conclude Marco Fanuli. “Le organizzazioni devono considerare i rischi di dipendenza, adottare una governance chiara, definire le responsabilità e introdurre la verifica umana per qualsiasi output rivolto agli utenti. Questo include la trasparenza dei fornitori di intelligenza artificiale su come si comportano i modelli, su quali dati si basano e dove vengono applicati i guardrail. L’intelligenza artificiale promuove innovazione ed efficienza, ma solo quando viene utilizzata con una chiara comprensione dei suoi limiti e con controlli che verificano come i sistemi si comportano negli ambienti del mondo reale”.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Silvia Felici 150x150
Red Hot Cyber Security Advisor ed esperto in SEO, Open Source e Supply Chain Network. Attualmente presso FiberCop S.p.A. in qualità di Network Operations Specialist, coniuga la gestione operativa di infrastrutture di rete critiche con l'analisi strategica della sicurezza digitale e dei flussi informativi.
Aree di competenza: SEO Strategica, Network Operations, Open Source, Supply Chain Security, Innovazione Tecnologica, Sistemi Operativi.
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoDiritti
Difesa attiva e hack back: il labirinto legale della cybersecurity
Paolo Galdieri - 27/01/2026

Nel precedente contributo abbiamo esplorato come la posizione di garanzia del professionista della cybersecurity si scontri con fattispecie classiche come l’accesso abusivo. Tuttavia, nella mia esperienza professionale e accademica, riscontro spesso una zona d’ombra ancora…

Immagine del sitoCyber News
E che il phishing abbia inizio! Microsoft corre ai ripari per una zero-day già sfruttata in Office
Redazione RHC - 27/01/2026

Ancora una volta Microsoft si è vista obbligata ad effettuare una rapida correzione di alcune falle. L’azienda ha rilasciato patch non programmate per Microsoft Office, risolvendo una pericolosa vulnerabilità zero-day già sfruttata in attacchi informatici.…

Immagine del sitoCyber News
ServiceNow sotto attacco: come un’email può spalancare le porte della tua azienda
Redazione RHC - 27/01/2026

La recente scoperta di una vulnerabilità nella piattaforma AI di ServiceNow ha scosso profondamente il settore della sicurezza informatica. Questa falla, caratterizzata da un punteggio di gravità estremamente elevato, ha permesso ad aggressori non autenticati…

Immagine del sitoCyber News
Scoperta Shock su Instagram: Post Privati Accessibili Senza Login!
Redazione RHC - 26/01/2026

La scoperta è avvenuta casualmente: navigando sulla versione web mobile di Instagram, Jatin Banga ha notato che i contenuti di alcuni profili privati erano visibili senza alcuna autorizzazione. Analizzando il traffico dati, ha individuato la…

Immagine del sitoCyber News
149 Milioni di Account Esposti: Il Database Che Nessuno Doveva Vedere
Redazione RHC - 26/01/2026

Un recente leak ha rivelato 149 milioni di login e password esposti online, tra cui account di servizi finanziari, social, gaming e siti di incontri. La scoperta è stata fatta dal ricercatore Jeremiah Fowler e…