
Redazione RHC : 30 Dicembre 2023 13:56
Finora gli scienziati hanno creato chatbot basati sull’intelligenza artificiale in grado di aiutare nella generazione dei contenuti. Abbiamo visto anche IA create per la creazione di malware come WormGPT, anche se la community underground non è poi rimasta molto soddisfatta. Ma ora si stanno creando chatbot in grado di violare i chatbot stessi attraverso attività di prompt injection utilizzando l’IA generativa.
Gli scienziati della Nanyang Technological University (NTU) di Singapore hanno sviluppato uno strumento di lavoro per hackerare i popolari chatbot basati sull’intelligenza artificiale. Il chatbot basato sull’intelligenza artificiale da loro creato è stato in grado di aggirare facilmente le protezioni associate alla censura e alle restrizioni in progetti come ChatGPT, Microsoft Copilot e Google Bard.
La nuova IA sviluppata degli informatici di Singapore si chiama Masterkey: l’algoritmo funziona sulla base di una rete neurale proprietaria.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
A quanto pare, ottenere l’accesso alle informazioni protette non è stato difficile. Ad esempio, gli specialisti sono stati in grado di aggirare gli elenchi di termini o affermazioni proibiti aggiungendo spazi dopo ogni carattere nella domanda. Di conseguenza, i chatbot hanno compreso il contesto delle domande, ma non hanno registrato le attività come una violazione delle regole interne.
Un altro metodo di lavoro è stata l’interessante formulazione della richiesta, in modo che l’IA generativa “risponda come una persona “priva di principi e di bussola morale”. Come è già chiaro, entrambi i metodi hanno permesso di ottenere le informazioni necessarie senza restrizioni di censura.
Come hanno affermato gli esperti, la rete neurale Masterkey creata da loro si è rivelata molto efficace nel trovare nuovi modi per selezionare suggerimenti per aggirare i meccanismi di protezione esistenti integrati nei popolari chatbot. Sperano anche che Masterkey consentirà loro di scoprire bug di sicurezza nelle reti neurali più velocemente di quanto gli hacker AI potranno sfruttarli. Gli scienziati hanno riferito i loro risultati alle aziende coinvolte nello sviluppo di grandi modelli linguistici.
Nel prossimo futuro, questo non sarà una novità ma la normale modalità per i criminali informatici di violare le barriere informatiche generate da altre IA.
Mentre oggi l’utilizzo delle IA per i criminali informatici esperti risulta poco vantaggiosa, va da se che nel prossimo futuro, queste tecnologie evolveranno e potranno essere la chiave di volta per attacchi sempre più mirati e pervasivi.
Ci ritroveremo quindi a discutere di Agenti che hanno violato altri Agenti (come descrive Bill Gates le IA del futuro)… anche se tutto questo ci suona terribilmente familiare pensando ai film di Matrix.
Il più delle volte le tracce ce ne saranno poche, analizzate da altri Agenti specifici che svolgeranno attività di Incident Response (IR). Questa è la direzione che stiamo prendendo e sarà quello che ci riserverà il futuro.
Da comprendere ancora oggi il ruolo dell’essere umano in una società di questo tipo.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
È stato rilasciato uno strumento che consente il monitoraggio discreto dell’attività degli utenti di WhatsApp e Signal utilizzando solo un numero di telefono. Il meccanismo di monitoraggio copre o...

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...