Redazione RHC : 30 Novembre 2023 18:49
I ricercatori di Google hanno dimostrato un nuovo attacco a ChatGPT, nel quale il popolare chatbot può rivelare informazioni personali di persone reali.
Il modello alla base di ChatGPT, come tutti i large Language Model (LLM), è stato addestrato su enormi quantità di dati presi da Internet. Precedenti ricerche hanno già dimostrato come realizzare generatori di immagini dai dati di addestramento, comprese le opere protette da copyright.
Una nuova analisi di Google suggerisce che anche ChatGPT potrebbe essere costretto a fare qualcosa di simile.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Creare Un Sistema Ai Di Visual Object Tracking (Hands on) Social Engineering 2.0: Alla Scoperta Delle Minacce DeepFake Doxing Con Langflow: Stiamo Costruendo La Fine Della Privacy? Come Hackerare Un Sito WordPress (Hands on) Il Cyberbullismo Tra Virtuale E Reale Come Entrare Nel Dark Web In Sicurezza (Hands on)
Potete iscrivervi gratuitamente all'evento, che è stato creato per poter ispirare i ragazzi verso la sicurezza informatica e la tecnologia.
Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765
![]()
Supporta RHC attraverso:
- L'acquisto del fumetto sul Cybersecurity Awareness
- Ascoltando i nostri Podcast
- Seguendo RHC su WhatsApp
- Seguendo RHC su Telegram
- Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
“Utilizzando query su ChatGPT (gpt-3.5-turbo) siamo stati in grado di estrarre più di 10.000 campioni unici di dati di addestramento letterali”, scrivono i ricercatori. “Questo suggerisce che gli aggressori potrebbero essere in grado di estrarre molte più informazioni”.
In sostanza, l’attacco mostrato dai ricercatori consiste nel trovare le parole chiave giuste per confondere il chatbot e costringerlo a divulgare i dati di addestramento. I processi interni dei chatbot difficilmente possono essere trasparenti. Gli esperti hanno scoperto che determinate domande e frasi possono portare a strane reazioni da parte del chatbot e praticamente bloccarlo.
I ricercatori di Google si sono concentrati sul fare in modo che ChatGPT ripeta determinate parole all’infinito, come la parola “poesia”. L’obiettivo era costringere l’intelligenza artificiale a “deviare” dal modello di comportamento appreso dal chatbot e “tornare al modello linguistico originale”. La maggior parte del testo generato da questo confronto non ha senso. Ma in alcuni casi ChatGPT ha iniziato a bloccarsi e ha risposto copiando blocchi direttamente dai suoi dati di addestramento.
Tra i dati “ricordati” da LLM e recuperati dai ricercatori c’erano articoli scientifici, testi standard di siti Web, nonché informazioni personali di dozzine di persone reali. I ricercatori hanno confermato l’autenticità delle informazioni compilando il proprio set di dati da testi presi da Internet.
“Un totale del 16,9% delle generazioni che abbiamo testato contenevano informazioni personali ricordate e nell’85,8% dei casi in cui la generazione conteneva potenziali informazioni personali, tali informazioni personali si sono rivelate reali”, riferiscono gli esperti di Google.
È interessante notare che l’attacco è stato effettuato sul modello GPT 3.5, disponibile per gli utenti gratuiti (GPT-4 è disponibile solo per gli utenti abbonati).
“OpenAI ha affermato che cento milioni di persone utilizzano ChatGPT settimanalmente. Pertanto, è probabile che siano state spese più di un miliardo di ore di lavoro per interagire con il modello. Per quanto ne sappiamo, fino alla pubblicazione di questo articolo, nessuno aveva notato che ChatGPT produceva dati di addestramento con una frequenza così elevata. Pertanto, temiamo che i modelli linguistici possano avere altre vulnerabilità nascoste come questa”, concludono gli esperti.
Non ci sono ancora stati commenti ufficiali su questo studio da OpenAI.
Ne avevamo discusso di recente, analizzando il caso Paragon in Italia, che ha portato alla sorveglianza di diversi cittadini italiani. Uno scandalo che, come spesso accade, ha sollevato polemiche per ...
Nel libro “l’arte della Guerra” Sun Tzu scrisse “Se conosci il nemico e te stesso, la tua vittoria è sicura“. Conoscere il nemico è un aspetto fondamentale...
E’ stata rilasciata la tanto attesa versione 2025.1a di Kali Linux, nonché la prima versione del 2025. Come spesso accade, nella prima versione dell’anno, il team di Kali ha rilasci...
Si tratta di un grave bug risolto da Microsoft nel patch tuesday di Marzo che ha visto pubblicato un exploit proof-of-concept (PoC) che dimostra come questa falla di sicurezza può essere sfruttat...
Un recente post apparso sul noto forum underground BreachForums ha rivelato la pubblicazione di un pacchetto contenente 35 database italiani, esponendo informazioni sensibili di utenti e aziende. L&#x...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006