
Lo sviluppatore di chatbot FraudGPT sta sviluppando attivamente strumenti avanzati che utilizzano modelli di intelligenza artificiale generativa, simili alla tecnologia chatbot di Google Bard e OpenAI.
Si tratta di un Large Language Model (LLM), che utilizza tutti i dati prelevati dal dark web come base di conoscenza. Lo riferisce l’azienda SlashNext, riferendosi ai messaggi dell’autore di FraudGPT.
Un hacker etico che in precedenza aveva scoperto un altro strumento di intelligenza artificiale (AI), WormGPT, ha avvisato i ricercatori che lo sviluppatore di FraudGPT – noto anche nei forum underground come “CanadianKingpin12“ – sta lavorando a nuovi chatbot capaci di generare truffe online.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I prossimi bot DarkBART e DarkBERT, avranno funzionalità simili a ChatGPT, e consentiranno agli hacker di sviluppare sofisticate campagne di phishing, rilevare e sfruttare le vulnerabilità, verificare la presenza di punti deboli nelle infrastrutture critiche e creare e distribuire malware.
DarkBART è la “versione oscura” di Google BART. La base di DarkBART sarà il modello DarkBERT LLM, sviluppato da scienziati della Corea del Sud per combattere il crimine informatico. Lo sviluppatore ha anche annunciato la possibilità di integrare il nuovo strumento con Google Lens. Ciò ti consentirà di inviare testo con immagini, il che apre nuove prospettive, poiché fino a d oggi gli strumenti AI sono basati su testo.
DarkBERT utilizzerà tutte le informazioni della rete oscura come dati di addestramento, offrendo agli aggressori l’accesso ad informazioni underground sulle minacce informatiche.
La protezione dalle minacce richiederà un’azione attiva. Oltre alla consueta formazione dei dipendenti aziendali sul riconoscimento degli attacchi di phishing, le organizzazioni dovrebbero fornire una formazione specializzata volta a sensibilizzare i dipendenti sulla natura degli attacchi e sul ruolo dell’intelligenza artificiale.
Inoltre, le misure di verifica delle e-mail per combattere le minacce basate sull’intelligenza artificiale devono essere rafforzate aggiungendo procedure rigorose e meccanismi di tracciamento delle parole chiave alle misure esistenti.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.


L’Open Source Intelligence (OSINT) è emersa, negli ultimi anni, come una delle discipline più affascinanti, ma anche più insidiose, nel panorama dell’informazione e della sicurezza. La sua esse...

La psicologia delle password parte proprio da qui: cercare di capire le persone prima dei sistemi. Benvenuti in “La mente dietro le password”, la rubrica che guarda alla cybersecurityda un’angol...

Le estensioni del browser sono da tempo un modo comune per velocizzare il lavoro e aggiungere funzionalità utili, ma un altro caso dimostra con quanta facilità questo comodo strumento possa trasform...

Una nuova versione, la 8.8.9, del noto editor di testo Notepad++, è stata distribuita dagli sviluppatori, risolvendo una criticità nel sistema di aggiornamento automatico. Questo problema è venuto ...

Questa non è la classica violazione fatta di password rubate e carte di credito clonate.È qualcosa di molto più delicato. Il data breach che ha coinvolto Pornhub nel dicembre 2025 rappresenta uno d...