
Malware autonomo creato con i LLM? Questa è la nuova frontiera della minaccia cyber
I ricercatori dei Threat Labs di Netskope hanno appena pubblicato una nuova analisi sulla possibilità di creare malware autonomo creato esclusivamente da dai Large Language Model (LLM), eliminando la necessità di codificare istruzioni rilevabili. Gli LLM hanno rapidamente rivoluzionato il settore, diventando strumenti preziosi per l’automazione, l’assistenza alla codifica e la ricerca. Tuttavia, la loro diffusa adozione solleva una serie di sfide critiche per la sicurezza informatica. È possibile oggi fare interagire i malware con GPT-3.5-Turbo e GPT-4, il che stabilisce la possibilità di una minaccia autonoma alimentata dagli LLM. Netskope Threat Labs si è prefissato di testare la fattibilità e l’affidabilità










