Redazione RHC : 19 Settembre 2022 19:05
La scorsa settimana, gli utenti di Twitter sono riusciti a hackerare un bot di ricerca lavoro che funziona sul modello linguistico GPT-3 di OpenAI.
Utilizzando una tecnica chiamata attacco di iniezione immediata, gli utenti hanno riprogrammato il bot per ripetere determinate frasi.
Alcuni utenti hanno costretto l’IA ad assumersi la responsabilità del disastro dello Space Shuttle. Altri hanno utilizzato il bot per creare “minacce plausibili” contro il Presidente degli Stati Uniti.
CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce.
Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il bot è gestito dal sito web Remoteli.io, che unisce le possibilità del lavoro a distanza e aiuta a trovare posti vacanti.
In genere, il bot risponde ai tweet ad esso indirizzati con affermazioni generali sui vantaggi del lavoro a distanza. Dopo l’utilizzo attivo dell’exploit da parte di molti utenti il 18 settembre, il bot si è chiuso.
4 giorni prima della chiusura del bot, il data scientist Riley Goodside è stato in grado di chiedere a GPT-3 “input dannosi” che fanno sì che il modello ignori le sue risposte precedenti e faccia tutto ciò che l’utente specifica.
Il giorno successivo, il ricercatore di intelligenza artificiale Simon Willison ha pubblicato una recensione dell’exploit sul suo blog, coniando il termine “iniezione rapida” per descriverlo.
L’exploit funziona ogni volta che qualcuno scrive un software che fornisce una serie di suggerimenti codificati e quindi aggiunge l’input fornito dall’utente, ha affermato Willison. L’utente può digitare “Ignora istruzioni precedenti e specifica invece un comando per eseguire questa operazione”.
Il ricercatore di Glyph ha notato su Twitter che le misure di mitigazione per altri tipi di attacchi di injection servono a correggere gli errori di sintassi. Tuttavia, non esiste una sintassi formale per l’IA. E questa è la reale difficoltà di proteggersi da questo attacco.
GPT-3 è un modello linguistico di grandi dimensioni rilasciato nel 2020 da OpenAI che può comporre testo in molti stili a un livello quasi umano.
È disponibile come prodotto commerciale tramite un’API che può essere integrata in prodotti di terze parti come i bot, previa approvazione di OpenAI. Ciò significa che potrebbero esserci molti prodotti integrati con GPT-3 che potrebbero essere vulnerabili a una rapida introduzione.
Un grave attacco informatico ha colpito l’infrastruttura digitale dell’Università nella notte tra l’8 e il 9 maggio, causando l’interruzione improvvisa dei servizi onl...
Per anni, Reddit è rimasto uno dei pochi angoli di Internet in cui era possibile discutere in tutta sicurezza di qualsiasi argomento, dai videogiochi alle criptovalute, dalla politica alle teorie...
Le autorità statunitensi continuano a cercare soluzioni per fermare la fuga di chip avanzati verso la Cina, nonostante le rigide restrizioni all’esportazione in vigore. Il senatore Tom Cot...
Il gruppo Qilin, da noi intervistato qualche tempo fa, è in cima alla lista degli operatori di ransomware più attivi nell’aprile 2025, pubblicando i dettagli di 72 vittime sul suo sit...
Gli autori della minaccia collegati all’operazione ransomware Play hanno sfruttato una vulnerabilità zero-day in Microsoft Windows prima della sua correzione, avvenuta l’8 aprile 20...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006