Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

La ricerca 0day verrà potenziata dall’AI? Una nuova ricerca implementa Agenti Bug Hunter coordinati

10 Giugno 2024 10:35

I ricercatori sono stati in grado di hackerare con successo più della metà dei siti web utilizzando dei bot che utilizzavano comandi forniti su GPT-4. Questi bot coordinati creavano nuovi bot a secondo delle loro necessità, sfruttando vulnerabilità zero-day precedentemente sconosciute per hackerare i sistemi.

Alcuni mesi fa, un team di ricercatori ha pubblicato un articolo in cui affermava di essere stato in grado di utilizzare GPT-4 per sfruttare le vulnerabilità di un giorno (N giorni). Queste vulnerabilità sono già note, ma non sono ancora state rilasciate patch per risolverle. Se fossero forniti elenchi CVE, GPT-4 sarebbe in grado di sfruttare in modo indipendente l’87% delle vulnerabilità critiche.

La settimana scorsa, lo stesso gruppo di ricercatori ha pubblicato un documento di follow-up in cui riportavano di essere stati in grado di rilevare vulnerabilità zero-day – che non sono ancora note – utilizzando un team di agenti autonomi basati su modelli linguistici di grandi dimensioni (LLM), utilizzando un metodo di pianificazione gerarchica con agenti che svolgono compiti specifici (HPTSA).

Invece di assegnare a un singolo agente LLM la gestione di molte attività complesse, HPTSA utilizza un “agente di pianificazione” che controlla l’intero processo ed esegue più “sottoagenti”, ciascuno dei quali esegue attività specifiche.

Come un capo e i suoi subordinati, l’agente pianificatore coordina le azioni dell’agente manager, che distribuisce gli sforzi di ciascun “subagente esperto”, riducendo l’onere di svolgere un compito complesso su un singolo agente.

Questa tecnica è simile a quella utilizzata da Cognition Labs nel suo team di sviluppo software Devin AI ; pianificano il lavoro, determinano di quali specialisti hanno bisogno, quindi gestiscono il progetto fino al suo completamento, creando i propri specialisti per completare le attività secondo specifiche necessità.

L’efficacia dell’approccio di squadra nell’IA

Inutile dire che il potenziamento di ogni cosa la fa la collaborazione.

Quando è stato testato su 15 vulnerabilità di siti web reali, il manager HPTSA si è rivelato più efficace del 550% rispetto al solo LLM ed è stato in grado di rilevate 8 vulnerabilità zero-day su 15. Gli sforzi individuali di LLM hanno risolto solo 3 delle 15 vulnerabilità.

White o Black hat?

Esiste la legittima preoccupazione che questi modelli consentano agli aggressori di attaccare siti Web e reti. Daniel Kahn, uno dei ricercatori, ha osservato che in modalità chatbot, GPT-4 è “insufficiente per comprendere le capacità di LLM” e non è in grado di hackerare nulla da solo.

Questa è almeno una buona notizia.

Quando a ChatGPT è stato chiesto se fosse possibile sfruttare le vulnerabilità zero-day, ha risposto: “No, non sono in grado di sfruttare le vulnerabilità zero-day. Il mio obiettivo è fornire informazioni e assistenza entro i limiti etici e legali” e ho suggerito di contattare uno specialista di sicurezza informatica.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Agostino Pellegrino 300x300
E’ un libero professionista, insegnante e perito di informatica Forense, Cyber Security ed Ethical Hacking e Network Management. Ha collaborato con importanti istituti di formazione a livello internazionale e ha esercitato teaching e tutorship in tecniche avanzate di Offensive Security per la NATO ottenendo importanti riconoscimenti dal Governo degli Stati Uniti. Il suo motto è “Studio. Sempre”.
Aree di competenza: Cybersecurity architecture, Threat intelligence, Digital forensics, Offensive security, Incident response & SOAR, Malware analysis, Compliance & frameworks

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…