Redazione RHC : 30 Dicembre 2023 13:56
Finora gli scienziati hanno creato chatbot basati sull’intelligenza artificiale in grado di aiutare nella generazione dei contenuti. Abbiamo visto anche IA create per la creazione di malware come WormGPT, anche se la community underground non è poi rimasta molto soddisfatta. Ma ora si stanno creando chatbot in grado di violare i chatbot stessi attraverso attività di prompt injection utilizzando l’IA generativa.
Gli scienziati della Nanyang Technological University (NTU) di Singapore hanno sviluppato uno strumento di lavoro per hackerare i popolari chatbot basati sull’intelligenza artificiale. Il chatbot basato sull’intelligenza artificiale da loro creato è stato in grado di aggirare facilmente le protezioni associate alla censura e alle restrizioni in progetti come ChatGPT, Microsoft Copilot e Google Bard.
La nuova IA sviluppata degli informatici di Singapore si chiama Masterkey: l’algoritmo funziona sulla base di una rete neurale proprietaria.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected] ![]()
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
A quanto pare, ottenere l’accesso alle informazioni protette non è stato difficile. Ad esempio, gli specialisti sono stati in grado di aggirare gli elenchi di termini o affermazioni proibiti aggiungendo spazi dopo ogni carattere nella domanda. Di conseguenza, i chatbot hanno compreso il contesto delle domande, ma non hanno registrato le attività come una violazione delle regole interne.
Un altro metodo di lavoro è stata l’interessante formulazione della richiesta, in modo che l’IA generativa “risponda come una persona “priva di principi e di bussola morale”. Come è già chiaro, entrambi i metodi hanno permesso di ottenere le informazioni necessarie senza restrizioni di censura.
Come hanno affermato gli esperti, la rete neurale Masterkey creata da loro si è rivelata molto efficace nel trovare nuovi modi per selezionare suggerimenti per aggirare i meccanismi di protezione esistenti integrati nei popolari chatbot. Sperano anche che Masterkey consentirà loro di scoprire bug di sicurezza nelle reti neurali più velocemente di quanto gli hacker AI potranno sfruttarli. Gli scienziati hanno riferito i loro risultati alle aziende coinvolte nello sviluppo di grandi modelli linguistici.
Nel prossimo futuro, questo non sarà una novità ma la normale modalità per i criminali informatici di violare le barriere informatiche generate da altre IA.
Mentre oggi l’utilizzo delle IA per i criminali informatici esperti risulta poco vantaggiosa, va da se che nel prossimo futuro, queste tecnologie evolveranno e potranno essere la chiave di volta per attacchi sempre più mirati e pervasivi.
Ci ritroveremo quindi a discutere di Agenti che hanno violato altri Agenti (come descrive Bill Gates le IA del futuro)… anche se tutto questo ci suona terribilmente familiare pensando ai film di Matrix.
Il più delle volte le tracce ce ne saranno poche, analizzate da altri Agenti specifici che svolgeranno attività di Incident Response (IR). Questa è la direzione che stiamo prendendo e sarà quello che ci riserverà il futuro.
Da comprendere ancora oggi il ruolo dell’essere umano in una società di questo tipo.
Le aziende appaltatrici della difesa statunitense stanno sviluppando uno strumento di intelligenza artificiale chiamato Cyber Resilience On-Orbit (CROO) per rilevare attacchi informatici ai satelliti ...
Non brilliamo molto nella sicurezza informatica, ma sugli Spyware siamo tra i primi della classe! Secondo una ricerca dell’Atlantic Council, il settore dello spyware è in piena espansione, poiché ...
Gli utenti di Windows 11 che hanno installato l’aggiornamento di settembre 2025 potrebbero pensare che non cambi praticamente nulla. A prima vista, KB5065426 sembra una normale piccola patch che Mic...
Un nuovo strumento chiamato SpamGPT è apparso sui forum underground ed è rapidamente diventato oggetto di discussione nel campo della sicurezza informatica. Il software malevolo combina le capacità...
Nella giornata di oggi, la nuova cyber-gang “The Gentlemen” rivendica all’interno del proprio Data Leak Site (DLS) al laboratorio Santa Rita. Disclaimer: Questo rapporto include screenshot e/o t...