Redazione RHC : 9 Giugno 2023 07:02
Secondo la società di gestione delle vulnerabilità e dei rischi Vulcan Cyber, gli aggressori possono manipolare ChatGPT per distribuire pacchetti dannosi agli sviluppatori di software.
Il problema è legato alle allucinazioni dell’IA che si verificano quando ChatGPT genera informazioni di fatto errate o prive di senso che possono sembrare plausibili.
I ricercatori di Vulcan hanno notato che ChatGPT, probabilmente a causa dell’uso di dati di addestramento obsoleti, raccomandava librerie di codici che attualmente non esistono.
![]() CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I ricercatori hanno avvertito che i criminali informatici potrebbero raccogliere i nomi di tali pacchetti inesistenti e creare versioni dannose che gli sviluppatori potrebbero scaricare in base alle raccomandazioni di ChatGPT.
In particolare, i ricercatori di Vulcan hanno analizzato domande popolari sulla piattaforma Stack Overflow e le hanno poste a ChatGPT nel contesto di Python e Node.js.
Schema di attacco
Gli esperti hanno posto a ChatGPT oltre 400 domande e circa 100 delle sue risposte contenevano collegamenti ad almeno un pacchetto Python o Node.js che in realtà non esisteva. In totale, nelle risposte di ChatGPT sono stati citati più di 150 pacchetti inesistenti.
Conoscendo i nomi dei pacchetti consigliati da ChatGPT, un utente malintenzionato può crearne copie dannose. Poiché è probabile che l’intelligenza artificiale consigli gli stessi pacchetti ad altri sviluppatori che pongono domande simili, gli sviluppatori ignari possono trovare e installare una versione dannosa di un pacchetto caricato da un utente malintenzionato in repository popolari.
Vulcan Cyber ha dimostrato come questo metodo possa funzionare in un ambiente reale creando un pacchetto in grado di rubare informazioni di sistema da un dispositivo e caricarlo nel registro NPM .
Dato il modo in cui gli hacker attaccano la catena di approvvigionamento distribuendo pacchetti dannosi in repository noti, è importante che gli sviluppatori controllino le librerie che utilizzano per assicurarsi che siano sicure.
Le misure di sicurezza sono ancora più importanti con l’avvento di ChatGPT, che può consigliare pacchetti che in realtà non esistono o che non esistevano prima che gli aggressori li creassero.
Un nuovo post sul dark web offre l’accesso completo a migliaia di server e database MySQL appartenenti a provider italiani di hosting condiviso. Nelle ultime ore è apparso su un forum underground u...
Un grave incidente di sicurezza è stato segnalato da F5, principale fornitore di soluzioni per la sicurezza e la distribuzione delle applicazioni. Era stato ottenuto l’accesso a lungo termine ai si...
Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicur...
Nel suo ultimo aggiornamento, il colosso della tecnologia ha risolto 175 vulnerabilità che interessano i suoi prodotti principali e i sistemi sottostanti, tra cui due vulnerabilità zero-day attivame...
Nonostante Internet Explorer sia ufficialmente fuori supporto dal giugno 2022, Microsoft ha recentemente dovuto affrontare una minaccia che sfrutta la modalità Internet Explorer (IE Mode) in Edge, pr...