
Redazione RHC : 25 Gennaio 2025 21:00
Nel 2023, il mondo ha assistito all’emergere dei primi modelli di intelligenza artificiale generativa che potevano essere usati per le attività criminali.
Uno dei più famosi è stato WormGPT, che ha dimostrato la sua capacità di aiutare gli hacker a creare software dannoso. È stato seguito da WolfGPT ed EscapeGPT e recentemente i ricercatori di sicurezza informatica hanno scoperto una nuova utility AI: GhostGPT.

Secondo gli esperti di Abnormal Security, GhostGPT utilizza una versione hackerata del chatbot ChatGPT di OpenAI o un modello linguistico simile, privo di ogni restrizione etica.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“GhostGPT, eliminando i meccanismi di sicurezza integrati, fornisce risposte dirette e non filtrate a query pericolose che i tradizionali sistemi di intelligenza artificiale bloccherebbero o segnalerebbero“, ha affermato la società in un post sul blog del 23 gennaio.
Gli sviluppatori di GhostGPT lo promuovono attivamente come uno strumento con quattro caratteristiche chiave:
Lo strumento è accessibile direttamente tramite un bot su Telegram, il che lo rende particolarmente attraente per gli aggressori. GhostGPT è ampiamente pubblicizzato nei forum di hacking e si concentra principalmente sulla creazione di attacchi BEC (Business Email Compromise).
I ricercatori di Abnormal Security hanno testato le capacità di GhostGPT chiedendogli di creare un’e-mail di phishing utilizzando Docusign. Il risultato è stato estremamente convincente, confermando la capacità dello strumento di ingannare le potenziali vittime.
Oltre a creare e-mail di phishing, GhostGPT può essere utilizzato per programmare malware e sviluppare exploit.
Una delle principali minacce associate a questo strumento è l’abbassamento delle barriere all’ingresso in attività criminali. Grazie all’intelligenza artificiale generativa, le e-mail fraudolente stanno diventando più intelligenti e più difficili da rilevare.
Ciò è particolarmente importante per gli hacker la cui lingua madre non è l’inglese. GhostGPT offre anche comodità e velocità: gli utenti non hanno bisogno di hackerare ChatGPT o configurare modelli open source. Pagando una tariffa fissa, ottengono l’accesso e possono concentrarsi immediatamente sull’esecuzione degli attacchi.
Redazione
Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...

Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali V...

Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...