I ricercatori dei Threat Labs di Netskope hanno appena pubblicato una nuova analisi sulla possibilità di creare malware autonomo creato esclusivamente da dai Large Language Model (LLM), eliminando la necessità di codificare istruzioni rilevabili.
Gli LLM hanno rapidamente rivoluzionato il settore, diventando strumenti preziosi per l’automazione, l’assistenza alla codifica e la ricerca. Tuttavia, la loro diffusa adozione solleva una serie di sfide critiche per la sicurezza informatica.
È possibile oggi fare interagire i malware con GPT-3.5-Turbo e GPT-4, il che stabilisce la possibilità di una minaccia autonoma alimentata dagli LLM.
Netskope Threat Labs si è prefissato di testare la fattibilità e l’affidabilità di malware completamente autonomi generati dai LLM.
I loro test hanno confermato che questo tipo di software basato su LLM può generare codice in modo dinamico, dimostrando che gli aggressori potrebbero eliminare l’uso di istruzioni rilevabili.
Tuttavia, la loro analisi di affidabilità ha rivelato che affidarsi a LLM per generare codice di evasione è operativamente inefficiente.
Il basso tasso di successo di questi script dimostra che il malware basato su LLM è attualmente limitato dalla sua stessa inaffidabilità, rappresentando un ostacolo significativo alla completa automazione del ciclo di vita del malware.
Netskope Threat Labs intende proseguire questa linea di ricerca e dedicarsi alla fase successiva ovvero la creazione e la convalida dei requisiti necessari per realizzare un malware robusto e completamente autonomo utilizzando unicamente i LLM.