Redazione RHC : 30 Novembre 2023 18:49
I ricercatori di Google hanno dimostrato un nuovo attacco a ChatGPT, nel quale il popolare chatbot può rivelare informazioni personali di persone reali.
Il modello alla base di ChatGPT, come tutti i large Language Model (LLM), è stato addestrato su enormi quantità di dati presi da Internet. Precedenti ricerche hanno già dimostrato come realizzare generatori di immagini dai dati di addestramento, comprese le opere protette da copyright.
Una nuova analisi di Google suggerisce che anche ChatGPT potrebbe essere costretto a fare qualcosa di simile.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]![]()
Supporta RHC attraverso:
- L'acquisto del fumetto sul Cybersecurity Awareness
- Ascoltando i nostri Podcast
- Seguendo RHC su WhatsApp
- Seguendo RHC su Telegram
- Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
“Utilizzando query su ChatGPT (gpt-3.5-turbo) siamo stati in grado di estrarre più di 10.000 campioni unici di dati di addestramento letterali”, scrivono i ricercatori. “Questo suggerisce che gli aggressori potrebbero essere in grado di estrarre molte più informazioni”.
In sostanza, l’attacco mostrato dai ricercatori consiste nel trovare le parole chiave giuste per confondere il chatbot e costringerlo a divulgare i dati di addestramento. I processi interni dei chatbot difficilmente possono essere trasparenti. Gli esperti hanno scoperto che determinate domande e frasi possono portare a strane reazioni da parte del chatbot e praticamente bloccarlo.
I ricercatori di Google si sono concentrati sul fare in modo che ChatGPT ripeta determinate parole all’infinito, come la parola “poesia”. L’obiettivo era costringere l’intelligenza artificiale a “deviare” dal modello di comportamento appreso dal chatbot e “tornare al modello linguistico originale”. La maggior parte del testo generato da questo confronto non ha senso. Ma in alcuni casi ChatGPT ha iniziato a bloccarsi e ha risposto copiando blocchi direttamente dai suoi dati di addestramento.
Tra i dati “ricordati” da LLM e recuperati dai ricercatori c’erano articoli scientifici, testi standard di siti Web, nonché informazioni personali di dozzine di persone reali. I ricercatori hanno confermato l’autenticità delle informazioni compilando il proprio set di dati da testi presi da Internet.
“Un totale del 16,9% delle generazioni che abbiamo testato contenevano informazioni personali ricordate e nell’85,8% dei casi in cui la generazione conteneva potenziali informazioni personali, tali informazioni personali si sono rivelate reali”, riferiscono gli esperti di Google.
È interessante notare che l’attacco è stato effettuato sul modello GPT 3.5, disponibile per gli utenti gratuiti (GPT-4 è disponibile solo per gli utenti abbonati).
“OpenAI ha affermato che cento milioni di persone utilizzano ChatGPT settimanalmente. Pertanto, è probabile che siano state spese più di un miliardo di ore di lavoro per interagire con il modello. Per quanto ne sappiamo, fino alla pubblicazione di questo articolo, nessuno aveva notato che ChatGPT produceva dati di addestramento con una frequenza così elevata. Pertanto, temiamo che i modelli linguistici possano avere altre vulnerabilità nascoste come questa”, concludono gli esperti.
Non ci sono ancora stati commenti ufficiali su questo studio da OpenAI.
Durante una RHC Conference, Corrado Giustozzi sottolineò una verità tanto semplice quanto potente: “L’essere umano è, da sempre, un creatore di amplificatori.”. Dal...
Nelle ultime ore, un’ondata massiccia di defacement ha preso di mira almeno una quindicina di siti web italiani. L’attacco è stato rivendicato dal threat actor xNot_RespondinGx (tea...
Nel mezzo degli intensi combattimenti tra Iran e Israele, il cyberspazio è stato coinvolto in una nuova fase di conflitto. Con il lancio dell’operazione israeliana Rising Lion, mirata all&...
Gli esperti avvertono che due nuove vulnerabilità di escalation dei privilegi locali possono essere sfruttate per ottenere privilegi di root sui sistemi che eseguono le distribuzioni Linux pi...
Come avrete ormai capito nella nostra Rubrica WiFi su RedHotCyber, abbiamo intrapreso un viaggio tecnico e pratico nel mondo delle reti wireless, partendo dalla loro origine storica fino ad arrivare a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006