Pietro Melillo : 2 Agosto 2023 15:42
Lo sviluppatore di chatbot FraudGPT sta sviluppando attivamente strumenti avanzati che utilizzano modelli di intelligenza artificiale generativa, simili alla tecnologia chatbot di Google Bard e OpenAI.
Si tratta di un Large Language Model (LLM), che utilizza tutti i dati prelevati dal dark web come base di conoscenza. Lo riferisce l’azienda SlashNext, riferendosi ai messaggi dell’autore di FraudGPT.
Un hacker etico che in precedenza aveva scoperto un altro strumento di intelligenza artificiale (AI), WormGPT, ha avvisato i ricercatori che lo sviluppatore di FraudGPT – noto anche nei forum underground come “CanadianKingpin12“ – sta lavorando a nuovi chatbot capaci di generare truffe online.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I prossimi bot DarkBART e DarkBERT, avranno funzionalità simili a ChatGPT, e consentiranno agli hacker di sviluppare sofisticate campagne di phishing, rilevare e sfruttare le vulnerabilità, verificare la presenza di punti deboli nelle infrastrutture critiche e creare e distribuire malware.
DarkBART è la “versione oscura” di Google BART. La base di DarkBART sarà il modello DarkBERT LLM, sviluppato da scienziati della Corea del Sud per combattere il crimine informatico. Lo sviluppatore ha anche annunciato la possibilità di integrare il nuovo strumento con Google Lens. Ciò ti consentirà di inviare testo con immagini, il che apre nuove prospettive, poiché fino a d oggi gli strumenti AI sono basati su testo.
DarkBERT utilizzerà tutte le informazioni della rete oscura come dati di addestramento, offrendo agli aggressori l’accesso ad informazioni underground sulle minacce informatiche.
La protezione dalle minacce richiederà un’azione attiva. Oltre alla consueta formazione dei dipendenti aziendali sul riconoscimento degli attacchi di phishing, le organizzazioni dovrebbero fornire una formazione specializzata volta a sensibilizzare i dipendenti sulla natura degli attacchi e sul ruolo dell’intelligenza artificiale.
Inoltre, le misure di verifica delle e-mail per combattere le minacce basate sull’intelligenza artificiale devono essere rafforzate aggiungendo procedure rigorose e meccanismi di tracciamento delle parole chiave alle misure esistenti.
Sul forum underground russo XSS è apparso un post che offre una “Collection di Lead Verificati Italia 2025” con oltre 1 milione di record. Questo tipo di inserzioni evidenzia la con...
Nel cuore dei conflitti contemporanei, accanto ai carri armati, ai droni e alle truppe, si combatte una guerra invisibile, silenziosa e spesso sottovalutata: la cyber war. Non è solo uno scenario...
Le autorità iberiche sono impegnate in un’indagine riguardante un pirata informatico che ha divulgato informazioni sensibili relative a funzionari pubblici e figure politiche di spicco. Tr...
Un insolito esempio di codice dannoso è stato scoperto in un ambiente informatico reale , che per la prima volta ha registrato un tentativo di attacco non ai classici meccanismi di difesa, ma dir...
Prendi una Fiat Panda seconda serie del 2003, con 140.000 km sul groppone, il classico motore Fire 1.1, e nessuna dotazione moderna. Ora immagina di trasformarla in una specie di Cybertruck in miniatu...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006