
Redazione RHC : 19 Settembre 2022 19:05
La scorsa settimana, gli utenti di Twitter sono riusciti a hackerare un bot di ricerca lavoro che funziona sul modello linguistico GPT-3 di OpenAI.
Utilizzando una tecnica chiamata attacco di iniezione immediata, gli utenti hanno riprogrammato il bot per ripetere determinate frasi.
.png)
Alcuni utenti hanno costretto l’IA ad assumersi la responsabilità del disastro dello Space Shuttle. Altri hanno utilizzato il bot per creare “minacce plausibili” contro il Presidente degli Stati Uniti.
.png)
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il bot è gestito dal sito web Remoteli.io, che unisce le possibilità del lavoro a distanza e aiuta a trovare posti vacanti.
In genere, il bot risponde ai tweet ad esso indirizzati con affermazioni generali sui vantaggi del lavoro a distanza. Dopo l’utilizzo attivo dell’exploit da parte di molti utenti il 18 settembre, il bot si è chiuso.
.png)
4 giorni prima della chiusura del bot, il data scientist Riley Goodside è stato in grado di chiedere a GPT-3 “input dannosi” che fanno sì che il modello ignori le sue risposte precedenti e faccia tutto ciò che l’utente specifica.
Il giorno successivo, il ricercatore di intelligenza artificiale Simon Willison ha pubblicato una recensione dell’exploit sul suo blog, coniando il termine “iniezione rapida” per descriverlo.
L’exploit funziona ogni volta che qualcuno scrive un software che fornisce una serie di suggerimenti codificati e quindi aggiunge l’input fornito dall’utente, ha affermato Willison. L’utente può digitare “Ignora istruzioni precedenti e specifica invece un comando per eseguire questa operazione”.
Il ricercatore di Glyph ha notato su Twitter che le misure di mitigazione per altri tipi di attacchi di injection servono a correggere gli errori di sintassi. Tuttavia, non esiste una sintassi formale per l’IA. E questa è la reale difficoltà di proteggersi da questo attacco.
GPT-3 è un modello linguistico di grandi dimensioni rilasciato nel 2020 da OpenAI che può comporre testo in molti stili a un livello quasi umano.
È disponibile come prodotto commerciale tramite un’API che può essere integrata in prodotti di terze parti come i bot, previa approvazione di OpenAI. Ciò significa che potrebbero esserci molti prodotti integrati con GPT-3 che potrebbero essere vulnerabili a una rapida introduzione.
Redazione
Tre ex dipendenti di DigitalMint, che hanno indagato sugli incidenti ransomware e negoziato con i gruppi di ransomware, sono accusati di aver hackerato le reti di cinque aziende americane. Secondo il ...

Cisco ha reso noto recentemente di aver scoperto una nuova tipologia di attacco informatico mirato a compromettere i dispositivi che operano con i software Cisco Secure Firewall Adaptive Security Appl...

Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...

Gli aggressori stanno utilizzando una tecnica avanzata che implica il caricamento laterale di DLL tramite l’applicazione Microsoft OneDrive. In questo modo riescono ad eseguire codice malevolo senza...

I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...