Redazione RHC : 30 Dicembre 2023 13:56
Finora gli scienziati hanno creato chatbot basati sull’intelligenza artificiale in grado di aiutare nella generazione dei contenuti. Abbiamo visto anche IA create per la creazione di malware come WormGPT, anche se la community underground non è poi rimasta molto soddisfatta. Ma ora si stanno creando chatbot in grado di violare i chatbot stessi attraverso attività di prompt injection utilizzando l’IA generativa.
Gli scienziati della Nanyang Technological University (NTU) di Singapore hanno sviluppato uno strumento di lavoro per hackerare i popolari chatbot basati sull’intelligenza artificiale. Il chatbot basato sull’intelligenza artificiale da loro creato è stato in grado di aggirare facilmente le protezioni associate alla censura e alle restrizioni in progetti come ChatGPT, Microsoft Copilot e Google Bard.
La nuova IA sviluppata degli informatici di Singapore si chiama Masterkey: l’algoritmo funziona sulla base di una rete neurale proprietaria.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
A quanto pare, ottenere l’accesso alle informazioni protette non è stato difficile. Ad esempio, gli specialisti sono stati in grado di aggirare gli elenchi di termini o affermazioni proibiti aggiungendo spazi dopo ogni carattere nella domanda. Di conseguenza, i chatbot hanno compreso il contesto delle domande, ma non hanno registrato le attività come una violazione delle regole interne.
Un altro metodo di lavoro è stata l’interessante formulazione della richiesta, in modo che l’IA generativa “risponda come una persona “priva di principi e di bussola morale”. Come è già chiaro, entrambi i metodi hanno permesso di ottenere le informazioni necessarie senza restrizioni di censura.
Come hanno affermato gli esperti, la rete neurale Masterkey creata da loro si è rivelata molto efficace nel trovare nuovi modi per selezionare suggerimenti per aggirare i meccanismi di protezione esistenti integrati nei popolari chatbot. Sperano anche che Masterkey consentirà loro di scoprire bug di sicurezza nelle reti neurali più velocemente di quanto gli hacker AI potranno sfruttarli. Gli scienziati hanno riferito i loro risultati alle aziende coinvolte nello sviluppo di grandi modelli linguistici.
Nel prossimo futuro, questo non sarà una novità ma la normale modalità per i criminali informatici di violare le barriere informatiche generate da altre IA.
Mentre oggi l’utilizzo delle IA per i criminali informatici esperti risulta poco vantaggiosa, va da se che nel prossimo futuro, queste tecnologie evolveranno e potranno essere la chiave di volta per attacchi sempre più mirati e pervasivi.
Ci ritroveremo quindi a discutere di Agenti che hanno violato altri Agenti (come descrive Bill Gates le IA del futuro)… anche se tutto questo ci suona terribilmente familiare pensando ai film di Matrix.
Il più delle volte le tracce ce ne saranno poche, analizzate da altri Agenti specifici che svolgeranno attività di Incident Response (IR). Questa è la direzione che stiamo prendendo e sarà quello che ci riserverà il futuro.
Da comprendere ancora oggi il ruolo dell’essere umano in una società di questo tipo.
Come era prevedibile, il famigerato bug scoperto su WinRar, viene ora sfruttato attivamente dai malintenzionati su larga scala, vista la diffusione e la popolarità del software. Gli esperti di ES...
Il Governo della Repubblica Popolare Cinese (“Cina”) e il Governo degli Stati Uniti d’America (“USA”), secondo quanto riportato da l’agenzia di stampa Xinhua ...
In California è stata intentata una causa contro Microsoft, accusandola di aver interrotto prematuramente il supporto per Windows 10 e di aver costretto gli utenti ad acquistare nuovi dispositivi...
“Il sistema di difesa militare Skynet entrerà in funzione il 4 agosto 1997. Comincerà ad autoistruirsi imparando a ritmo esponenziale e diverrà autocosciente alle 2:14 del giorno...
Un nuovo strumento per disabilitare i sistemi EDR è apparso nell’ambiente dei criminali informatici , che gli esperti di Sophos ritengono essere un’estensione dell’utility ED...