Redazione RHC : 30 Dicembre 2023 13:56
Finora gli scienziati hanno creato chatbot basati sull’intelligenza artificiale in grado di aiutare nella generazione dei contenuti. Abbiamo visto anche IA create per la creazione di malware come WormGPT, anche se la community underground non è poi rimasta molto soddisfatta. Ma ora si stanno creando chatbot in grado di violare i chatbot stessi attraverso attività di prompt injection utilizzando l’IA generativa.
Gli scienziati della Nanyang Technological University (NTU) di Singapore hanno sviluppato uno strumento di lavoro per hackerare i popolari chatbot basati sull’intelligenza artificiale. Il chatbot basato sull’intelligenza artificiale da loro creato è stato in grado di aggirare facilmente le protezioni associate alla censura e alle restrizioni in progetti come ChatGPT, Microsoft Copilot e Google Bard.
La nuova IA sviluppata degli informatici di Singapore si chiama Masterkey: l’algoritmo funziona sulla base di una rete neurale proprietaria.
![]() Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
A quanto pare, ottenere l’accesso alle informazioni protette non è stato difficile. Ad esempio, gli specialisti sono stati in grado di aggirare gli elenchi di termini o affermazioni proibiti aggiungendo spazi dopo ogni carattere nella domanda. Di conseguenza, i chatbot hanno compreso il contesto delle domande, ma non hanno registrato le attività come una violazione delle regole interne.
Un altro metodo di lavoro è stata l’interessante formulazione della richiesta, in modo che l’IA generativa “risponda come una persona “priva di principi e di bussola morale”. Come è già chiaro, entrambi i metodi hanno permesso di ottenere le informazioni necessarie senza restrizioni di censura.
Come hanno affermato gli esperti, la rete neurale Masterkey creata da loro si è rivelata molto efficace nel trovare nuovi modi per selezionare suggerimenti per aggirare i meccanismi di protezione esistenti integrati nei popolari chatbot. Sperano anche che Masterkey consentirà loro di scoprire bug di sicurezza nelle reti neurali più velocemente di quanto gli hacker AI potranno sfruttarli. Gli scienziati hanno riferito i loro risultati alle aziende coinvolte nello sviluppo di grandi modelli linguistici.
Nel prossimo futuro, questo non sarà una novità ma la normale modalità per i criminali informatici di violare le barriere informatiche generate da altre IA.
Mentre oggi l’utilizzo delle IA per i criminali informatici esperti risulta poco vantaggiosa, va da se che nel prossimo futuro, queste tecnologie evolveranno e potranno essere la chiave di volta per attacchi sempre più mirati e pervasivi.
Ci ritroveremo quindi a discutere di Agenti che hanno violato altri Agenti (come descrive Bill Gates le IA del futuro)… anche se tutto questo ci suona terribilmente familiare pensando ai film di Matrix.
Il più delle volte le tracce ce ne saranno poche, analizzate da altri Agenti specifici che svolgeranno attività di Incident Response (IR). Questa è la direzione che stiamo prendendo e sarà quello che ci riserverà il futuro.
Da comprendere ancora oggi il ruolo dell’essere umano in una società di questo tipo.
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi...
Negli Stati Uniti, una vasta campagna coordinata tramite botnet sta prendendo di mira i servizi basati sul protocollo Remote Desktop Protocol (RDP). Un pericolo notevole è rappresentato dalla scala e...
Un’ondata di messaggi di phishing sta colpendo in questi giorni numerosi cittadini lombardi. Le email, apparentemente inviate da una società di recupero crediti, fanno riferimento a presunti mancat...
La scorsa settimana, Oracle ha avvisato i clienti di una vulnerabilità zero-day critica nella sua E-Business Suite (CVE-2025-61882), che consente l’esecuzione remota di codice arbitrario senza aute...
Dal 6 al 9 ottobre 2025, Varsavia è stata teatro della 11ª edizione della European Cybersecurity Challenge (ECSC). In un confronto serrato tra 39 team provenienti da Stati membri UE, Paesi EFTA, can...