Redazione RHC : 23 Luglio 2023 22:22
Gli scienziati del Pacific Northwest National Laboratory (PNNL), una divisione del Dipartimento dell’Energia degli Stati Uniti, hanno sviluppato un nuovo sistema basato sull’apprendimento per rinforzo profondo (Deep Reinforcement Learning, DRL) in grado di prevenire il 95% degli attacchi informatici in un ambiente simulato prima si intensificano.
Gli scienziati hanno creato un ambiente simulato utilizzando il toolkit OpenAI Gym. Questo framework è stato quindi utilizzato per sviluppare entità attaccanti che dimostrano diversi livelli di abilità e persistenza sulla base di un sottoinsieme di 15 approcci e 7 tattiche dal framework MITRE ATT&CK.
L’obiettivo degli aggressori è passare attraverso le 7 fasi della catena di attacco – dall’accesso iniziale e dalla ricognizione ad altre fasi di attacco, fino a quando gli hacker raggiungono il loro obiettivo finale – la fase di attacco e di esfiltrazione dei dati.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Gli esperti hanno quindi addestrato 4 modelli DRL utilizzando principi di apprendimento per rinforzo come massimizzare i premi per evitare compromissioni e quindi ridurre le interruzioni della rete. È importante notare che l’obiettivo dei ricercatori non era quello di creare un modello in grado di bloccare il nemico prima che potesse lanciare un attacco all’interno del sistema. Gli scienziati presumevano che il sistema fosse già stato compromesso.
Gli esperimenti hanno dimostrato che gli algoritmi DRL possono essere addestrati con diversi livelli di abilità e persistenza, mostrando risultati di protezione efficaci in condizioni sperimentali. Lo studio dimostra che i modelli di intelligenza artificiale possono addestrarsi con successo in un ambiente simulato e sono in grado di rispondere agli attacchi informatici in tempo reale.
Tecnologie simili sono già state create nel 2016 dagli specialisti del Computer Science and Artificial Intelligence Laboratory del Massachusetts Institute of Technology (Computer Science and Artificial Intelligence Laboratory). Gli scienziati hanno sviluppato un’intelligenza artificiale in grado di tracciare gli attacchi hacker criminali consentendo una efficienza di ben 3 volte superiore rispetto alle soluzioni esistenti.
Advanced Security Solutions, con sede negli Emirati Arabi Uniti, è nata questo mese ed offre fino a 20 milioni di dollari per vulnerabilità zero-day ed exploit che consentirebbero a chiunque...
Un difetto critico riscontrato nel più recente modello di OpenAI, ChatGPT-5, permette a malintenzionati di aggirare le avanzate funzionalità di sicurezza attraverso l’uso di semplici ...
Gli analisti di Citizen Lab hanno segnalato che oltre 20 app VPN presenti sul Google Play Store presentano gravi problemi di sicurezza che minacciano la privacy degli utenti e consentono la decrittazi...
Diversi bug di sicurezza di alta gravità sono stati risolti da Mozilla con il rilascio di Firefox 142, impedendo a malintenzionati di eseguire in remoto codice a loro scelta sui sistemi coinvolti...
In data odierna – avverte il Cert-AGiD – sono pervenute segnalazioni da parte di Pubbliche Amministrazioni riguardo a una campagna malevola mirata diffusa in queste ore. Email malevola L...