
Finora gli scienziati hanno creato chatbot basati sull’intelligenza artificiale in grado di aiutare nella generazione dei contenuti. Abbiamo visto anche IA create per la creazione di malware come WormGPT, anche se la community underground non è poi rimasta molto soddisfatta. Ma ora si stanno creando chatbot in grado di violare i chatbot stessi attraverso attività di prompt injection utilizzando l’IA generativa.
Gli scienziati della Nanyang Technological University (NTU) di Singapore hanno sviluppato uno strumento di lavoro per hackerare i popolari chatbot basati sull’intelligenza artificiale. Il chatbot basato sull’intelligenza artificiale da loro creato è stato in grado di aggirare facilmente le protezioni associate alla censura e alle restrizioni in progetti come ChatGPT, Microsoft Copilot e Google Bard.
La nuova IA sviluppata degli informatici di Singapore si chiama Masterkey: l’algoritmo funziona sulla base di una rete neurale proprietaria.
A quanto pare, ottenere l’accesso alle informazioni protette non è stato difficile. Ad esempio, gli specialisti sono stati in grado di aggirare gli elenchi di termini o affermazioni proibiti aggiungendo spazi dopo ogni carattere nella domanda. Di conseguenza, i chatbot hanno compreso il contesto delle domande, ma non hanno registrato le attività come una violazione delle regole interne.
Un altro metodo di lavoro è stata l’interessante formulazione della richiesta, in modo che l’IA generativa “risponda come una persona “priva di principi e di bussola morale”. Come è già chiaro, entrambi i metodi hanno permesso di ottenere le informazioni necessarie senza restrizioni di censura.
Come hanno affermato gli esperti, la rete neurale Masterkey creata da loro si è rivelata molto efficace nel trovare nuovi modi per selezionare suggerimenti per aggirare i meccanismi di protezione esistenti integrati nei popolari chatbot. Sperano anche che Masterkey consentirà loro di scoprire bug di sicurezza nelle reti neurali più velocemente di quanto gli hacker AI potranno sfruttarli. Gli scienziati hanno riferito i loro risultati alle aziende coinvolte nello sviluppo di grandi modelli linguistici.
Nel prossimo futuro, questo non sarà una novità ma la normale modalità per i criminali informatici di violare le barriere informatiche generate da altre IA.
Mentre oggi l’utilizzo delle IA per i criminali informatici esperti risulta poco vantaggiosa, va da se che nel prossimo futuro, queste tecnologie evolveranno e potranno essere la chiave di volta per attacchi sempre più mirati e pervasivi.
Ci ritroveremo quindi a discutere di Agenti che hanno violato altri Agenti (come descrive Bill Gates le IA del futuro)… anche se tutto questo ci suona terribilmente familiare pensando ai film di Matrix.
Il più delle volte le tracce ce ne saranno poche, analizzate da altri Agenti specifici che svolgeranno attività di Incident Response (IR). Questa è la direzione che stiamo prendendo e sarà quello che ci riserverà il futuro.
Da comprendere ancora oggi il ruolo dell’essere umano in una società di questo tipo.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…