Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ransomfeed 970x120 1
Crowdstrike 320×100
Attento a ciò che dici all’AI! Potrebbero essere dati riservati

Attento a ciò che dici all’AI! Potrebbero essere dati riservati

Filippo Boni : 28 Ottobre 2025 22:22

Nell’epoca in cui ogni domanda trova risposta con un semplice tap, noi utenti abbiamo forse preso un po’ troppo la mano con i nuovi assistenti basati sull’intelligenza artificiale. In fondo, cambia poco quale scegliamo: i modelli linguistici più diffusi appartengono tutti a grandi società private. Nulla di nuovo, dirà qualcuno; anche la maggior parte dei servizi digitali che utilizziamo ogni giorno lo sono.

La differenza, però, è che qui non stiamo interagendo con un motore di ricerca o un social network, ma con un sistema che simula una conversazione umana. Ed è proprio questa naturalezza a spingerci, spesso senza rendercene conto, a condividere informazioni che non riveleremmo mai volontariamente altrove.

Almeno direttamente, perché sul come indirettamente queste aziende raccolgano, correlino e analizzino i nostri dati per costruire dei veri e propri digital twin (modelli digitali estremamente accurati di noi stessi) potremmo discutere per giorni. Il punto è che ogni interazione, anche quella apparentemente innocua, contribuisce ad arricchire quel profilo invisibile che descrive chi siamo, cosa facciamo e perfino come pensiamo.

Quali dati sono considerati sensibili e quali no?


Rhc Conference Sponsor Program 2

Sponsorizza la prossima Red Hot Cyber Conference!

Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference
Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. 
Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. 
Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Non tutti i dati che condividiamo online hanno lo stesso peso o lo stesso valore. Alcuni, se divulgati o trattati in modo improprio, possono esporre una persona o un’organizzazione a rischi significativi: furti d’identità, violazioni di segreti industriali, ricatti o danni reputazionali. Per questo motivo le normative, a partire dal Regolamento Europeo GDPR, distinguono tra dati personali comuni e dati sensibili o particolari.

I dati personali sono tutte le informazioni che identificano, direttamente o indirettamente, una persona fisica. Rientrano in questa categoria nomi, indirizzi, numeri di telefono, e-mail, dati fiscali, ma anche elementi tecnici come indirizzi IP o cookie, se riconducibili a un individuo.

I dati sensibili (o categorie particolari di dati personali, art. 9 GDPR) comprendono invece informazioni che rivelano aspetti più intimi o potenzialmente discriminatori:

  • origine razziale o etnica
  • opinioni politiche o convinzioni religiose
  • appartenenza sindacale
  • dati genetici o biometrici
  • informazioni sulla salute
  • orientamento sessuale o dati relativi alla vita privata.

A questi, nel contesto aziendale e della cybersecurity, si aggiungono anche i dati riservati o confidenziali: segreti commerciali, progetti interni, strategie di sicurezza, credenziali di accesso, database dei clienti o log di rete. Non sempre sono “personali”, ma la loro esposizione può compromettere la sicurezza di sistemi o persone.

Distinguere tra dato personale e dato sensibile non è sufficiente: ciò che conta è il contesto in cui viene condiviso. Un’informazione innocua in un social network può diventare rischiosa se inserita in un prompt a un modello linguistico che conserva o analizza le interazioni. La sensibilità di un dato, quindi, non è solo nella sua natura, ma anche nel modo e nel luogo in cui viene trattato.

Capita più spesso di quanto si pensi. Ti trovi davanti alla schermata di un servizio di LLM e scrivi: “Ti copio la bozza del contratto con il nostro fornitore, così mi aiuti a riscriverla in modo più chiaro.”

Un gesto che sembra innocuo, quasi pratico. Lo faresti con un collega, perché non con l’AI? Eppure, in quel semplice copia-incolla ci sono clausole riservate, nomi di partner commerciali, condizioni economiche e riferimenti a progetti che, in qualsiasi altro contesto, non condivideresti mai pubblicamente.

È qui che entra in gioco la persuasività involontaria dei modelli linguistici: la loro capacità di imitare il linguaggio umano, di rispondere in modo cortese e collaborativo, crea un clima di fiducia che abbassa le difese. Non ci si accorge che, mentre chiediamo un consiglio di stile o una revisione, stiamo consegnando a un sistema privato dati che rientrerebbero a pieno titolo nella categoria delle informazioni aziendali riservate.

L'(In)volontario Social Engineering dell’LLM

Ilsocial engineering tradizionale si basa sull’arte di manipolare le persone per ottenere informazioni, accessi o azioni che non avrebbero normalmente concesso. È una forma di attacco che sfrutta la fiducia, la curiosità o la fretta dell’utente più che le vulnerabilità tecniche di un sistema.
Con i modelli linguistici di grandi dimensioni (LLM), questa tecnica assume una forma nuova e più sottile: non è l’attaccante umano a persuadere, ma l’interfaccia stessa del modello. L’AI non vuole ingannare, ma il suo modo di comunicare, cortese e rassicurante, induce una sensazione di fiducia che riduce l’attenzione e abbassa le difese cognitive.

L’utente finisce così per comportarsi come se stesse parlando con un consulente esperto o con un collega fidato. In questo contesto, fornire dettagli su procedure interne, contratti, progetti o persino problemi personali diventa un gesto naturale, quasi spontaneo. È la trasposizione digitale del social engineering, ma priva di intenzionalità: una forma di persuasione involontaria che nasce dall’empatia simulata.

Il rischio non è tanto che l’LLM “voglia” carpire informazioni, ma che la sua capacità di interazione naturale renda invisibile il confine tra conversazione privata e condivisione di dati sensibili. Ed è proprio in questa zona grigia, tra comfort comunicativo e fiducia automatica, che si annidano i nuovi rischi per la sicurezza dei dati.

Anche quando crediamo di non aver fornito dati sensibili, capita spesso di aver inviato frammenti di informazione in eccesso: singole domande precedenti, file parziali o dettagli apparentemente innocui che, messi in relazione, rivelano molto di più. Il modello, per sua natura progettato per costruire contesto e continuità nelle conversazioni, finisce per fare implicitamente un’attività di data gathering e intelligence per l’utente. Se immaginassimo di collegare tutte le informazioni (dirette o subdole) fornite nel tempo, potremmo ricostruire profili estremamente dettagliati della nostra vita, delle nostre abitudini e dei nostri problemi.

Ponendo per ipotesi che non esistano regolamentazioni efficaci o che queste non vengano rispettate dal fornitore del servizio, le conseguenze plausibili si riducono a due scenari critici. Primo: a livello personale, il risultato è la creazione di un gemello digitale, un modello digitale che “pensa” come noi e che, grazie all’analisi predittiva, potrebbe anticipare comportamenti d’acquisto ancora prima che ne siamo consapevoli. Ne deriverebbero campagne pubblicitarie iper-personalizzate e, nel limite estremo, meccanismi automatici di acquisto o raccomandazione che agiscono senza controllo umano pieno. Secondo: dal punto di vista organizzativo, se un’azienda conta migliaia di dipendenti che condividono informazioni sensibili con un servizio esterno, la superficie d’attacco cresce esponenzialmente. Una vulnerabilità negli LLM o una compromissione dell’infrastruttura porterebbe a una perdita massiva di intelligence aziendale: per un attaccante sarebbe praticamente un’operazione di reconnaissance già svolta dagli stessi utenti, con conseguenze potenzialmente devastanti.

Regolamentazioni europee in materia: Pro e Contro

L’Unione Europea è da tempo in prima linea nella tutela dei dati e nella definizione di un uso etico dell’intelligenza artificiale. Il Regolamento Generale sulla Protezione dei Dati (GDPR) ha rappresentato un punto di svolta globale, imponendo principi come trasparenza, minimizzazione e consenso informato. Con il recente AI Act, l’Europa ha esteso questa visione all’intero ecosistema dell’intelligenza artificiale, includendo anche i modelli linguistici di grandi dimensioni (LLM).

I punti di forza

Il GDPR ha stabilito regole chiare: i dati devono essere raccolti solo per scopi specifici, conservati per il tempo strettamente necessario e trattati con il consenso dell’utente. L’AI Act aggiunge un ulteriore livello di tutela, introducendo obblighi di documentazione, valutazione del rischio e tracciabilità per i sistemi AI.

In teoria, queste norme dovrebbero garantire che i fornitori di servizi basati su intelligenza artificiale dichiarino con maggiore chiarezza come e per quali scopi vengono utilizzate le informazioni degli utenti. L’obiettivo è creare un ecosistema digitale trasparente, dove l’innovazione non avvenga a scapito della privacy.

Le criticità

Nella pratica, tuttavia, emergono limiti significativi. Gli LLM sono tecnologie estremamente complesse e spesso opache: anche quando i fornitori pubblicano informative dettagliate, è molto difficile verificare se i dati vengano realmente trattati in modo conforme.

Un altro problema è la giurisdizione: molti dei principali operatori non hanno sede o server in Europa, rendendo difficile per le autorità competenti effettuare controlli o imporre sanzioni efficaci.
A ciò si aggiunge un aspetto economico: le normative europee, pur essendo garanzia di tutela, impongono costi e adempimenti che solo i grandi player possono sostenere. Le startup e le piccole imprese europee rischiano così di rimanere indietro, schiacciate tra la burocrazia e la concorrenza globale.

Anche con regole severe come il GDPR, la realtà dimostra che la conformità non è mai scontata. Negli ultimi anni, diverse grandi aziende del settore digitale sono state sanzionate per importi di miliardi di euro, a causa di pratiche poco trasparenti nel trattamento dei dati personali o nell’uso dei profili degli utenti a fini commerciali. In alcuni casi, le singole multe hanno superato le centinaia di milioni di euro, segno evidente che le infrazioni non sono episodi marginali.

Questi numeri raccontano molto: le norme ci sono, ma non sempre vengono rispettate, e i controlli, pur rigorosi, non bastano a garantire una protezione effettiva dei dati. La complessità tecnica dei sistemi di intelligenza artificiale e la collocazione extraeuropea di molti fornitori rendono difficile verificare cosa accada realmente “dietro le quinte” del trattamento dei dati.

Per questo motivo, la sicurezza non può essere affidata solo alle leggi o ai garanti, ma deve partire dall’utente stesso. Ogni volta che interagiamo con un modello linguistico, anche in modo innocente, stiamo potenzialmente contribuendo a un’enorme raccolta di informazioni. E sebbene esistano regole precise, non c’è garanzia che vengano sempre rispettate.

Come difendersi?

Se la tecnologia evolve più in fretta delle regole, l’unica vera difesa diventa la consapevolezza. Non serve essere esperti di sicurezza informatica per proteggere i propri dati: serve, prima di tutto, capire cosa si condivide, con chi e in quale contesto.

I modelli linguistici sono strumenti potenti, ma non neutrali. Ogni parola digitata, una domanda, un file allegato, un testo da revisionare, può trasformarsi in un frammento di informazione che arricchisce enormi database di addestramento o analisi.

1. Pensare prima di scrivere

La prima regola è la più semplice, ma anche la più trascurata: evitare di condividere informazioni che non si direbbero mai a un estraneo. Testi di contratti, nomi di clienti, dettagli su procedure interne o dati personali non dovrebbero mai comparire in una chat con un LLM, per quanto sicura possa sembrare.

Un buon approccio è chiedersi: “Se questo testo finisse per errore su internet, sarebbe un problema?”, se la risposta è sì, non va condiviso.

2. Anonimizzare e ridurre

Quando è necessario utilizzare l’AI per lavoro, si possono sostituire dati reali con esempi generici o versioni sintetiche. È la logica della minimizzazione dei dati: fornire solo ciò che serve davvero al modello per rispondere, niente di più.

3. Preferire soluzioni locali

Molti provider offrono versioni enterprise o on-premise dei loro modelli, con clausole che escludono l’uso dei dati per l’addestramento. Usare queste soluzioni, quando possibile, riduce drasticamente il rischio di dispersione.

4. Formazione e cultura digitale

A livello aziendale, la difesa passa anche dalla formazione. Spiegare ai dipendenti cosa si può e non si può condividere con un LLM è fondamentale. Una sola interazione sbagliata può compromettere dati sensibili di un intero dipartimento o progetto.

Conclusioni

L’intelligenza artificiale conversazionale rappresenta una delle rivoluzioni della nostra epoca. Ci semplifica la vita, accelera i processi, moltiplica la produttività. Ma come ogni tecnologia che si insinua nel linguaggio e nel pensiero, porta con sé un rischio sottile: quello di farci dimenticare che ogni parola digitata è, in fondo, un dato. Un dato che racconta qualcosa di noi, del nostro lavoro, delle nostre abitudini o della nostra azienda.

Le regole ci sono, e in Europa sono tra le più avanzate al mondo, ma non bastano da sole a proteggerci. Le sanzioni milionarie inflitte a diverse realtà del settore digitale dimostrano che anche chi dovrebbe garantire sicurezza e trasparenza non sempre lo fa. Le norme definiscono i limiti, ma è la consapevolezza dell’utente a determinare quanto quei limiti vengano davvero rispettati.

La vera difesa, dunque, non è solo normativa ma culturale. Significa imparare a comunicare con l’AI con la stessa cautela con cui si proteggerebbe una conversazione privata o un documento aziendale riservato.

Ogni volta che un modello linguistico ci ascolta, analizza, riformula o suggerisce, dobbiamo ricordare che non stiamo parlando a un amico, ma a un sistema che osserva, elabora e conserva.

Immagine del sitoFilippo Boni
Laureato in Informatica presso l'Università di Pisa, è attualmente ricercatore in ambito cyber security, specializzato nella protezione di sistemi cloud e nella mitigazione degli attacchi da botnet. Attualmente è Master’s Student sempre a UniPi. Profilo Linkedin - Sito web

Lista degli articoli

Articoli in evidenza

Immagine del sito
Quale sarà l’e-commerce italiano basato su Magento che presto sarà violato?
Di Redazione RHC - 28/10/2025

Un nuovo post sul dark web mette in vendita l’accesso amministrativo a un negozio online italiano basato su Magento. Prezzo: 200 dollari. Clienti e ordini in chiaro, e un rischio enorme per la sicur...

Immagine del sito
Microsoft Teams farà la spia al tuo capo quando non sei in ufficio! A dicembre il deploy del tracciamento della posizione
Di Redazione RHC - 27/10/2025

Microsoft Teams riceverà un aggiornamento a dicembre 2025 che consentirà di monitorare la posizione dei dipendenti tramite la rete Wi-Fi dell’ufficio. Secondo la roadmap di Microsoft 365 , “quan...

Immagine del sito
Mentre Papa Francesco è Vivo e continua il suo ministero, la disinformazione Galoppa
Di Redazione RHC - 26/10/2025

Un’indagine condotta dall’Unione Europea di Radiodiffusione (EBU), con il supporto della BBC, ha messo in luce che i chatbot più popolari tendono a distorcere le notizie, modificandone il senso, ...

Immagine del sito
BreachForums rinasce ancora dopo l’ennesima chiusura dell’FBI
Di Redazione RHC - 26/10/2025

Spesso abbiamo citato questa frase: “Combattere il cybercrime è come estirpare le erbacce: se non le estirpi completamente rinasceranno, molto più vigorose di prima” e mai come ora risulta esser...

Immagine del sito
Blackout internet di 3 giorni a Caponago: una volpe ha morso e distrutto la fibra ottica
Di Redazione RHC - 25/10/2025

Per tre giorni consecutivi, dal 19 al 22 ottobre, il Comune di Caponago è rimasto isolato dal web a causa di un insolito incidente: una volpe è finita in un pozzetto della rete telefonica, danneggia...