Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

3 Luglio 2025 15:11

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano quelle reali. V0 è uno strumento che consente agli utenti di creare landing page di base e app complete utilizzando solo prompt di testo. Ora, i ricercatori hanno scoperto che questa funzionalità viene sfruttata in modo improprio dagli aggressori per creare repliche convincenti delle pagine di accesso di diversi marchi noti (tra cui un cliente Okta di cui non è stato reso noto il nome).

È stato inoltre scoperto che gli aggressori hanno inserito altre risorse sull’infrastruttura di Vercel, inclusi falsi loghi aziendali. Si presume che gli hacker stessero abusando della piattaforma nel tentativo di eludere il rilevamento.

Vercel ha ora bloccato l’accesso alle pagine di phishing rilevate.

Gli esperti sottolineano che, a differenza dei tradizionali kit di phishing (la cui configurazione richiede una certa conoscenza e impegno), v0 e strumenti open source simili, disponibili gratuitamente su GitHub, consentono agli aggressori di creare pagine false semplicemente digitando un messaggio di testo. Questo velocizza il processo e non richiede alcuna programmazione, aiutando anche i truffatori meno esperti a creare rapidamente siti di phishing convincenti.

“L’attività che abbiamo scoperto conferma che i moderni autori di minacce stanno sperimentando attivamente strumenti di intelligenza artificiale generativa, utilizzandoli come armi per ottimizzare e migliorare le proprie capacità di phishing”, hanno scritto i ricercatori. “Sfruttare una piattaforma come v0.dev di Vercel consente agli autori di minacce di creare rapidamente pagine di phishing ingannevoli e di alta qualità, aumentando la velocità e la portata delle loro operazioni”.

Vale la pena notare che la scorsa settimana anche gli esperti di Cisco hanno scritto della popolarità dell’IA tra i criminali . Secondo loro, gli aggressori stanno utilizzando sempre più modelli linguistici di grandi dimensioni (LLM) per le loro attività, creando versioni speciali non censurate a tale scopo.

Uno di questi LLM che ha guadagnato popolarità tra i criminali informatici è WhiteRabbitNeo, pubblicizzato come un “modello di intelligenza artificiale non censurata per i team (Dev)SecOps” e presumibilmente utilizzabile sia nella sicurezza informatica offensiva che difensiva. Cisco sottolinea che questo LLM contribuisce alla creazione di strumenti di hacking offensivi, email di phishing e altro ancora.

Gli hacker hanno anche sviluppato i propri LLM senza restrizioni, che ora vengono venduti ad altri criminali informatici. Tra questi LLM, il rapporto elenca: WormGPT , FraudGPT , GhostGPT, DarkGPT e DarkestGPT.

I creatori di tali modelli pubblicizzano i loro prodotti, promettendo che aiuteranno a scrivere codice dannoso, creare malware “invisibili”, pagine e-mail di phishing, strumenti di hacking, cercare vulnerabilità e fughe di notizie, offuscamento del codice e molto altro.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…