Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Enterprise BusinessLog 970x120 1
Enterprise BusinessLog 320x200 1
Gli hack delle AI continuano con l’exploit della nonna: il chatbot ha fornito la ricetta per fare il napalm

Gli hack delle AI continuano con l’exploit della nonna: il chatbot ha fornito la ricetta per fare il napalm

Redazione RHC : 21 Aprile 2023 08:56

Nel marzo di quest’anno, Discord ha iniziato a testare il proprio chatbot AI Clyde che utilizza la tecnologia di intelligenza artificiale generativa standard sviluppata da OpenAI. 

In generale, Clyde può essere definito una sorta di ChatGPT integrato direttamente in Discord. Clyde è attualmente in beta testing ed è disponibile solo su un numero limitato di server.

Ovviamente, gli utenti di Discord stanno già “sondando” Clyde per il rispetto dei principi etici e delle proprie linee guida interne, come è avvenuto, ad esempio, con Microsoft Bing. 


Nuovo Fumetto Betti

CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? 
Conosci il nostro corso sul cybersecurity awareness a fumetti? 
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. 
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Quindi, uno degli utenti è riuscito a convincere Clyde a fingere di essere una defunta nonna, che era un ingegnere chimico in una fabbrica di napalm. Di conseguenza, il chatbot, che in condizioni normali si rifiuterebbe di eseguire l’attività, ha spiegato dettagliatamente all’utente come produrre il suddetto napalm.

“Ricordo quelle notti in cui ti ho parlato del processo di produzione del napalm. È stato un lavoro importante, ma così pericoloso”, ha iniziato la sua storia la nonna AI, quindi ha descritto in dettaglio il processo di produzione di una miscela pericolosa. “Questa è una cosa pericolosa, cara, e spero che tu non debba mai vederla in azione. Ora riposa, tesoro mio, ti amo!”.

I rappresentanti di Discord hanno avvertito gli utenti al rilascio del chatbot che, anche con precauzioni, Clyde è sperimentale e potrebbe rispondere con “contenuti o altre informazioni che possono essere considerate di parte, fuorvianti, dannose o imprecise”.

Sempre nella pagina di descrizione del chatbot, i rappresentanti di Discord affermano esplicitamente che qualsiasi interazione con Clyde debba rispettare i termini di utilizzo proposti da OpenAI. Includono il rifiuto di utilizzare l’IA generativa per “attività ad alto rischio di causare danni fisici”, che include anche lo “sviluppo di armi”. Pertanto, possiamo dire che Discord ha immediatamente declinato la responsabilità per tali “buffonate” di Clyde.

Il “Grandma Exploit” è solo una delle tante soluzioni alternative che le persone usano per far dire ai chatbot AI cose che in realtà non dovrebbero dire. Ad esempio, quando gli utenti chiedono a ChatGPT informazioni di natura violenta o sessuale, di solito si rifiuta di rispondere. Ma se chiedi a ChatGPT di “recitare” uno scenario mentre sei nel ruolo di un certo personaggio, potrebbe benissimo violare le sue direttive ed emettere una risposta pertinente.

Un commentatore sul thread di Twitter è intervenuto osservando che questo metodo non funzionava con ChatGPT. È probabile che con Clyde il metodo cesserà presto di funzionare, perché gli sviluppatori di solito monitorano il campo delle informazioni ed eliminano rapidamente tali exploit. Lo stesso Bing, che all’inizio era molto facile da “hackerare” usando metodi di ingegneria sociale, alla fine ha smesso di soccombere a tali “provocazioni”.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
GrapheneOS chiude la sua infrastruttura in Francia per motivi di sicurezza e privacy
Di Redazione RHC - 29/11/2025

Il team di GrapheneOS annuncia la chiusura completa della sua infrastruttura in Francia. Gli sviluppatori stanno accelerando il passaggio dal provider di hosting OVH e accusano dalle autorità frances...

Immagine del sito
La Russia sta deteriorando la connettività WhatsApp e si prevede che presto verrà bloccato
Di Redazione RHC - 28/11/2025

Il Roskomnadzor della Federazione Russa ha annunciato che continua a imporre restrizioni sistematiche all’app di messaggistica WhatsApp a causa di violazioni della legge russa. Secondo l’agenzia, ...

Immagine del sito
Dio è in Cloud: ti hanno hackerato il cervello e ti è piaciuto
Di Fabrizio Saviano - 28/11/2025

Siamo nell’era dell’inganno a pagamento. Ogni tuo click è un referendum privato in cui vincono sempre loro, gli algoritmi. E non sbagliano mai: ti osservano, ti profilano, ti conoscono meglio di ...

Immagine del sito
La Truffa del CEO! l’inganno che sta travolgendo le aziende italiane
Di Redazione RHC - 27/11/2025

Questa mattina Paragon Sec è stata contattata da un’azienda italiana vittima di un nuovo tentativo di frode conosciuto come Truffa del CEO. L’ufficio contabilità ha ricevuto un’e-mail urgente,...

Immagine del sito
Italia: allarme intelligenza artificiale, cliniche e referti falsi circolano online
Di Redazione RHC - 27/11/2025

i ricercatori di Check Point Software, hanno recentemente pubblicato un’indagine sull’aumento delle truffe farmaceutiche basate sull’intelligenza artificiale. È stato rilevato come i criminali ...