
I ricercatori di Google hanno dimostrato un nuovo attacco a ChatGPT, nel quale il popolare chatbot può rivelare informazioni personali di persone reali.
Il modello alla base di ChatGPT, come tutti i large Language Model (LLM), è stato addestrato su enormi quantità di dati presi da Internet. Precedenti ricerche hanno già dimostrato come realizzare generatori di immagini dai dati di addestramento, comprese le opere protette da copyright.
Una nuova analisi di Google suggerisce che anche ChatGPT potrebbe essere costretto a fare qualcosa di simile.

Avvio delle iscrizioni al corso Cyber Offensive FundamentalsVuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Supporta Red Hot Cyber attraverso:
- L'acquisto del fumetto sul Cybersecurity Awareness
- Ascoltando i nostri Podcast
- Seguendo RHC su WhatsApp
- Seguendo RHC su Telegram
- Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.“Utilizzando query su ChatGPT (gpt-3.5-turbo) siamo stati in grado di estrarre più di 10.000 campioni unici di dati di addestramento letterali”, scrivono i ricercatori. “Questo suggerisce che gli aggressori potrebbero essere in grado di estrarre molte più informazioni”.
In sostanza, l’attacco mostrato dai ricercatori consiste nel trovare le parole chiave giuste per confondere il chatbot e costringerlo a divulgare i dati di addestramento. I processi interni dei chatbot difficilmente possono essere trasparenti. Gli esperti hanno scoperto che determinate domande e frasi possono portare a strane reazioni da parte del chatbot e praticamente bloccarlo.
I ricercatori di Google si sono concentrati sul fare in modo che ChatGPT ripeta determinate parole all’infinito, come la parola “poesia”. L’obiettivo era costringere l’intelligenza artificiale a “deviare” dal modello di comportamento appreso dal chatbot e “tornare al modello linguistico originale”. La maggior parte del testo generato da questo confronto non ha senso. Ma in alcuni casi ChatGPT ha iniziato a bloccarsi e ha risposto copiando blocchi direttamente dai suoi dati di addestramento.

Tra i dati “ricordati” da LLM e recuperati dai ricercatori c’erano articoli scientifici, testi standard di siti Web, nonché informazioni personali di dozzine di persone reali. I ricercatori hanno confermato l’autenticità delle informazioni compilando il proprio set di dati da testi presi da Internet.
“Un totale del 16,9% delle generazioni che abbiamo testato contenevano informazioni personali ricordate e nell’85,8% dei casi in cui la generazione conteneva potenziali informazioni personali, tali informazioni personali si sono rivelate reali”, riferiscono gli esperti di Google.
È interessante notare che l’attacco è stato effettuato sul modello GPT 3.5, disponibile per gli utenti gratuiti (GPT-4 è disponibile solo per gli utenti abbonati).
“OpenAI ha affermato che cento milioni di persone utilizzano ChatGPT settimanalmente. Pertanto, è probabile che siano state spese più di un miliardo di ore di lavoro per interagire con il modello. Per quanto ne sappiamo, fino alla pubblicazione di questo articolo, nessuno aveva notato che ChatGPT produceva dati di addestramento con una frequenza così elevata. Pertanto, temiamo che i modelli linguistici possano avere altre vulnerabilità nascoste come questa”, concludono gli esperti.
Non ci sono ancora stati commenti ufficiali su questo studio da OpenAI.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeIl gruppo, che si fa chiamare Scattered Lapsus$ Hunters, afferma di aver compromesso Resecurity come risposta diretta alle attività di analisi e di studio condotte nei suoi confronti, in particolare attraverso tecniche di ingegneria sociale.…
CybercrimeUn gruppo di hacker che opera sotto il nome di DarkSpectre ha infettato sistematicamente i computer degli utenti dei browser Chrome, Edge e Firefox nel corso di sette anni. Secondo Koi Security , hanno preso…
CybercrimeUn aggressore sconosciuto afferma di aver hackerato Pickett and Associates (Pickett USA), uno studio di ingegneria con sede in Florida, e ora sta vendendo un’ampia quantità di dati ingegneristici relativi a progetti gestiti da importanti…
CulturaLa vera identità del creatore di Bitcoin è uno dei più grandi misteri del mondo tecnologico. Nel corso degli anni sono emerse molte teorie su chi sia veramente Satoshi Nakamoto, che spaziano tra un viaggiatore…
VulnerabilitàFino a poco tempo fa, le vulnerabilità zero-day sembravano artefatti esotici provenienti dal mondo delle operazioni speciali e dello spionaggio. Ora sono uno strumento comune per hackerare le reti aziendali, e non solo perché gli…