I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano quelle reali. V0 è uno strumento che consente agli utenti di creare landing page di base e app complete utilizzando solo prompt di testo. Ora, i ricercatori hanno scoperto che questa funzionalità viene sfruttata in modo improprio dagli aggressori per creare repliche convincenti delle pagine di accesso di diversi marchi noti (tra cui un cliente Okta di cui non è stato reso noto il nome).
È stato inoltre scoperto che gli aggressori hanno inserito altre risorse sull’infrastruttura di Vercel, inclusi falsi loghi aziendali. Si presume che gli hacker stessero abusando della piattaforma nel tentativo di eludere il rilevamento.

Vercel ha ora bloccato l’accesso alle pagine di phishing rilevate.
Gli esperti sottolineano che, a differenza dei tradizionali kit di phishing (la cui configurazione richiede una certa conoscenza e impegno), v0 e strumenti open source simili, disponibili gratuitamente su GitHub, consentono agli aggressori di creare pagine false semplicemente digitando un messaggio di testo. Questo velocizza il processo e non richiede alcuna programmazione, aiutando anche i truffatori meno esperti a creare rapidamente siti di phishing convincenti.
“L’attività che abbiamo scoperto conferma che i moderni autori di minacce stanno sperimentando attivamente strumenti di intelligenza artificiale generativa, utilizzandoli come armi per ottimizzare e migliorare le proprie capacità di phishing”, hanno scritto i ricercatori. “Sfruttare una piattaforma come v0.dev di Vercel consente agli autori di minacce di creare rapidamente pagine di phishing ingannevoli e di alta qualità, aumentando la velocità e la portata delle loro operazioni”.
Vale la pena notare che la scorsa settimana anche gli esperti di Cisco hanno scritto della popolarità dell’IA tra i criminali . Secondo loro, gli aggressori stanno utilizzando sempre più modelli linguistici di grandi dimensioni (LLM) per le loro attività, creando versioni speciali non censurate a tale scopo.
Uno di questi LLM che ha guadagnato popolarità tra i criminali informatici è WhiteRabbitNeo, pubblicizzato come un “modello di intelligenza artificiale non censurata per i team (Dev)SecOps” e presumibilmente utilizzabile sia nella sicurezza informatica offensiva che difensiva. Cisco sottolinea che questo LLM contribuisce alla creazione di strumenti di hacking offensivi, email di phishing e altro ancora.
Gli hacker hanno anche sviluppato i propri LLM senza restrizioni, che ora vengono venduti ad altri criminali informatici. Tra questi LLM, il rapporto elenca: WormGPT , FraudGPT , GhostGPT, DarkGPT e DarkestGPT.
I creatori di tali modelli pubblicizzano i loro prodotti, promettendo che aiuteranno a scrivere codice dannoso, creare malware “invisibili”, pagine e-mail di phishing, strumenti di hacking, cercare vulnerabilità e fughe di notizie, offuscamento del codice e molto altro.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…