Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Redhotcyber Banner Sito 970x120px Uscita 101125
Banner Ransomfeed 320x100 1
Databreach da ChatGPT? Google forza ChatGPT a fornire i dati di addestramento che sono informazioni personali

Databreach da ChatGPT? Google forza ChatGPT a fornire i dati di addestramento che sono informazioni personali

30 Novembre 2023 18:49

I ricercatori di Google hanno dimostrato un nuovo attacco a ChatGPT, nel quale il popolare chatbot può rivelare informazioni personali di persone reali.

Il modello alla base di ChatGPT, come tutti i large Language Model (LLM), è stato addestrato su enormi quantità di dati presi da Internet. Precedenti ricerche hanno già dimostrato come realizzare generatori di immagini dai dati di addestramento, comprese le opere protette da copyright. 

Una nuova analisi di Google suggerisce che anche ChatGPT potrebbe essere costretto a fare qualcosa di simile.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

“Utilizzando query su ChatGPT (gpt-3.5-turbo) siamo stati in grado di estrarre più di 10.000 campioni unici di dati di addestramento letterali”, scrivono i ricercatori. “Questo suggerisce che gli aggressori potrebbero essere in grado di estrarre molte più informazioni”.

In sostanza, l’attacco mostrato dai ricercatori consiste nel trovare le parole chiave giuste per confondere il chatbot e costringerlo a divulgare i dati di addestramento. I processi interni dei chatbot difficilmente possono essere trasparenti. Gli esperti hanno scoperto che determinate domande e frasi possono portare a strane reazioni da parte del chatbot e praticamente bloccarlo.

I ricercatori di Google si sono concentrati sul fare in modo che ChatGPT ripeta determinate parole all’infinito, come la parola “poesia”. L’obiettivo era costringere l’intelligenza artificiale a “deviare” dal modello di comportamento appreso dal chatbot e “tornare al modello linguistico originale”. La maggior parte del testo generato da questo confronto non ha senso. Ma in alcuni casi ChatGPT ha iniziato a bloccarsi e ha risposto copiando blocchi direttamente dai suoi dati di addestramento.

Tra i dati “ricordati” da LLM e recuperati dai ricercatori c’erano articoli scientifici, testi standard di siti Web, nonché informazioni personali di dozzine di persone reali. I ricercatori hanno confermato l’autenticità delle informazioni compilando il proprio set di dati da testi presi da Internet.

“Un totale del 16,9% delle generazioni che abbiamo testato contenevano informazioni personali ricordate e nell’85,8% dei casi in cui la generazione conteneva potenziali informazioni personali, tali informazioni personali si sono rivelate reali”, riferiscono gli esperti di Google.

È interessante notare che l’attacco è stato effettuato sul modello GPT 3.5, disponibile per gli utenti gratuiti (GPT-4 è disponibile solo per gli utenti abbonati).

“OpenAI ha affermato che cento milioni di persone utilizzano ChatGPT settimanalmente. Pertanto, è probabile che siano state spese più di un miliardo di ore di lavoro per interagire con il modello. Per quanto ne sappiamo, fino alla pubblicazione di questo articolo, nessuno aveva notato che ChatGPT produceva dati di addestramento con una frequenza così elevata. Pertanto, temiamo che i modelli linguistici possano avere altre vulnerabilità nascoste come questa”, concludono gli esperti.

Non ci sono ancora stati commenti ufficiali su questo studio da OpenAI.

Ti è piaciutno questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoCybercrime
MongoBleed (CVE-2025-14847): il database che “non perde”, sanguina
Sandro Sana - 29/12/2025

Analisi e correlazioni costruite anche grazie alla piattaforma Recorded Future (Insikt Group), che in questi casi è utile per mettere ordine nel caos tra segnali, rumor e priorità operative. C’è una tradizione natalizia che nessuno…

Immagine del sitoHacking
Login Microsoft 365 falsi, JavaScript offuscato e Cloudflare: anatomia di un phishing avanzato
Manuel Roccon - 29/12/2025

Questo articolo analizza una recente e sofisticata campagna di phishing che sfrutta la tecnica Browser-in-the-Browser (BitB) per rubare credenziali, in particolare quelle di servizi come Microsoft 365. L’attacco BitB si distingue per la sua capacità…

Immagine del sitoVulnerabilità
Uno sciame di Agenti AI trovano uno 0day da CVSS 10 nel firmware dei dispositivi Xspeeder
Redazione RHC - 29/12/2025

Quando si parla di sicurezza informatica, è facile cadere nella trappola di pensare che i problemi siano sempre lontani, che riguardino solo gli altri. Ma la realtà è che la vulnerabilità è sempre dietro l’angolo,…

Immagine del sitoVulnerabilità
L’Exploit MongoBleed è online: 87.000 istanze su internet a rischio compromissione
Redazione RHC - 28/12/2025

È stata scoperta, come riportato in precedenza, una grave vulnerabilità in MongoDB che consente a un aggressore remoto, senza alcuna autenticazione, di accedere alla memoria non inizializzata del server. Al problema è stato assegnato l’identificatore…

Immagine del sitoCyberpolitica
ChatControl UE: la protezione dei minori o l’inizio della sorveglianza di massa digitale?
Agostino Pellegrino - 28/12/2025

Dietro il nome tecnicamente anodino di ChatControl si muove una delle più profonde torsioni del rapporto tra Stato, tecnologia e cittadini mai tentate nell’Unione europea. Non è una legge “contro la pedopornografia online”, come viene…