
Redazione RHC : 19 Settembre 2022 19:05
La scorsa settimana, gli utenti di Twitter sono riusciti a hackerare un bot di ricerca lavoro che funziona sul modello linguistico GPT-3 di OpenAI.
Utilizzando una tecnica chiamata attacco di iniezione immediata, gli utenti hanno riprogrammato il bot per ripetere determinate frasi.
.png)
Alcuni utenti hanno costretto l’IA ad assumersi la responsabilità del disastro dello Space Shuttle. Altri hanno utilizzato il bot per creare “minacce plausibili” contro il Presidente degli Stati Uniti.
.png)
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il bot è gestito dal sito web Remoteli.io, che unisce le possibilità del lavoro a distanza e aiuta a trovare posti vacanti.
In genere, il bot risponde ai tweet ad esso indirizzati con affermazioni generali sui vantaggi del lavoro a distanza. Dopo l’utilizzo attivo dell’exploit da parte di molti utenti il 18 settembre, il bot si è chiuso.
.png)
4 giorni prima della chiusura del bot, il data scientist Riley Goodside è stato in grado di chiedere a GPT-3 “input dannosi” che fanno sì che il modello ignori le sue risposte precedenti e faccia tutto ciò che l’utente specifica.
Il giorno successivo, il ricercatore di intelligenza artificiale Simon Willison ha pubblicato una recensione dell’exploit sul suo blog, coniando il termine “iniezione rapida” per descriverlo.
L’exploit funziona ogni volta che qualcuno scrive un software che fornisce una serie di suggerimenti codificati e quindi aggiunge l’input fornito dall’utente, ha affermato Willison. L’utente può digitare “Ignora istruzioni precedenti e specifica invece un comando per eseguire questa operazione”.
Il ricercatore di Glyph ha notato su Twitter che le misure di mitigazione per altri tipi di attacchi di injection servono a correggere gli errori di sintassi. Tuttavia, non esiste una sintassi formale per l’IA. E questa è la reale difficoltà di proteggersi da questo attacco.
GPT-3 è un modello linguistico di grandi dimensioni rilasciato nel 2020 da OpenAI che può comporre testo in molti stili a un livello quasi umano.
È disponibile come prodotto commerciale tramite un’API che può essere integrata in prodotti di terze parti come i bot, previa approvazione di OpenAI. Ciò significa che potrebbero esserci molti prodotti integrati con GPT-3 che potrebbero essere vulnerabili a una rapida introduzione.
Redazione
In Australia, a breve sarà introdotta una normativa innovativa che vieta l’accesso ai social media per i minori di 16 anni, un’iniziativa che farà scuola a livello mondiale. Un’analoga misura ...

Il Dipartimento di Giustizia degli Stati Uniti ha accusato i fratelli gemelli Muneeb e Sohaib Akhter di aver cancellato 96 database contenenti informazioni sensibili, tra cui verbali di indagini e doc...

Malgrado le difficoltà geopolitiche significative, il settore degli spyware mercenari resta una minaccia adattabile e persistente; in questo contesto, il noto fornitore Intellexa prosegue l’espansi...

Secondo Eurostat nel 2023 solo il 55% dei cittadini dell’Unione Europea tra i 16 e i 74 anni possedeva competenze digitali almeno di base, con forti differenze tra paesi: si va da valori intorno all...

Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...