Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

3 Luglio 2025 15:11

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano quelle reali. V0 è uno strumento che consente agli utenti di creare landing page di base e app complete utilizzando solo prompt di testo. Ora, i ricercatori hanno scoperto che questa funzionalità viene sfruttata in modo improprio dagli aggressori per creare repliche convincenti delle pagine di accesso di diversi marchi noti (tra cui un cliente Okta di cui non è stato reso noto il nome).

È stato inoltre scoperto che gli aggressori hanno inserito altre risorse sull’infrastruttura di Vercel, inclusi falsi loghi aziendali. Si presume che gli hacker stessero abusando della piattaforma nel tentativo di eludere il rilevamento.

Advertising

Vercel ha ora bloccato l’accesso alle pagine di phishing rilevate.

Gli esperti sottolineano che, a differenza dei tradizionali kit di phishing (la cui configurazione richiede una certa conoscenza e impegno), v0 e strumenti open source simili, disponibili gratuitamente su GitHub, consentono agli aggressori di creare pagine false semplicemente digitando un messaggio di testo. Questo velocizza il processo e non richiede alcuna programmazione, aiutando anche i truffatori meno esperti a creare rapidamente siti di phishing convincenti.

“L’attività che abbiamo scoperto conferma che i moderni autori di minacce stanno sperimentando attivamente strumenti di intelligenza artificiale generativa, utilizzandoli come armi per ottimizzare e migliorare le proprie capacità di phishing”, hanno scritto i ricercatori. “Sfruttare una piattaforma come v0.dev di Vercel consente agli autori di minacce di creare rapidamente pagine di phishing ingannevoli e di alta qualità, aumentando la velocità e la portata delle loro operazioni”.

Vale la pena notare che la scorsa settimana anche gli esperti di Cisco hanno scritto della popolarità dell’IA tra i criminali . Secondo loro, gli aggressori stanno utilizzando sempre più modelli linguistici di grandi dimensioni (LLM) per le loro attività, creando versioni speciali non censurate a tale scopo.

Uno di questi LLM che ha guadagnato popolarità tra i criminali informatici è WhiteRabbitNeo, pubblicizzato come un “modello di intelligenza artificiale non censurata per i team (Dev)SecOps” e presumibilmente utilizzabile sia nella sicurezza informatica offensiva che difensiva. Cisco sottolinea che questo LLM contribuisce alla creazione di strumenti di hacking offensivi, email di phishing e altro ancora.

Gli hacker hanno anche sviluppato i propri LLM senza restrizioni, che ora vengono venduti ad altri criminali informatici. Tra questi LLM, il rapporto elenca: WormGPT , FraudGPT , GhostGPT, DarkGPT e DarkestGPT.

I creatori di tali modelli pubblicizzano i loro prodotti, promettendo che aiuteranno a scrivere codice dannoso, creare malware “invisibili”, pagine e-mail di phishing, strumenti di hacking, cercare vulnerabilità e fughe di notizie, offuscamento del codice e molto altro.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.