Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Redhotcyber Banner Sito 970x120px Uscita 101125
Enterprise BusinessLog 320x200 1
ChatGPT apre nuove opportunità ai criminali informatici, 5 linee di difesa da adottare.

ChatGPT apre nuove opportunità ai criminali informatici, 5 linee di difesa da adottare.

26 Gennaio 2023 07:00

Dall’aggiornamento della formazione dei dipendenti all’implementazione di protocolli di autenticazione più forti, fino al monitoraggio degli account aziendali e all’adozione di un modello di fiducia zero, le aziende possono preparare al meglio le difese contro gli attacchi potenziati dai chatbot.

Su LinkedIn, Slack, Twitter, e-mail e messaggi di testo, le persone condividono esempi creati con ChatGPT, il nuovo modello di intelligenza artificiale (AI) del team di OpenAI.

Utilizzando ChatGPT, è possibile produrre dialoghi che possono essere utilizzati per qualsiasi cosa, dalla risposta alle domande di follow-up in una chat online alla scrittura di poesie. Le imprese possono trarre vantaggio dalla nuova tecnologia dei chatbot in numerose occasioni, tra cui l’assistenza aziendale e le interazioni con i clienti.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

La sua capacità di generare rapidamente testi e, secondo i suoi sviluppatori, di “rispondere alle domande successive, ammettere i propri errori, contestare le premesse errate e rifiutare le richieste inappropriate”, apre molte opportunità e alcune nuove sfide.

L’intelligenza artificiale e l’apprendimento automatico (ML) si stanno rapidamente spostando da soluzioni di nicchia in scenari aziendali ad alto costo/alta remunerazione verso implementazioni più estese in grado di risolvere una serie di sfide aziendali, in particolare quelle incentrate sugli utenti finali. La sicurezza informatica, ad esempio, sta ora abbracciando approcci basati sull’IA per fornire una maggiore protezione con team di sicurezza più piccoli.

Un esempio evidenzia come le organizzazioni possano utilizzare l’AI/ML per eseguire controlli dinamici e basati sul rischio quando qualcuno cerca di accedere ad applicazioni o dati sensibili. Questo sostituisce i vecchi approcci basati su policy, che possono richiedere molto tempo e interazione umana per sviluppare e mantenere le singole policy di accesso. In un’azienda di grandi dimensioni, la manutenzione di tali criteri potrebbe includere centinaia o addirittura migliaia di applicazioni e archivi di dati.

Utilizzo dell’IA per una maggiore efficienza

L’interesse per l’IA continua a esplodere, poiché gli attacchi moderni richiedono un rilevamento e una risposta rapidi ai comportamenti anomali degli utenti – qualcosa che un modello di IA può essere addestrato a identificare rapidamente, ma che richiede una notevole potenza umana per cercare di replicare manualmente.

L’obiettivo dell’IA è aumentare l’efficienza e la fiducia, riducendo al contempo l’attrito e migliorando l’interfaccia utente per gli utenti tipici. Le auto a guida autonoma, ad esempio, sono progettate per aumentare la sicurezza degli utenti finali.

Nella sicurezza informatica, in particolare nell’autenticazione degli utenti (umani e non), gli approcci basati sull’IA stanno avanzando rapidamente, lavorando con sistemi basati su regole per migliorare l’esperienza degli utenti finali.

In un mondo sempre più digitale, gli aggressori sono già in grado di eludere il rilevamento dell’autenticazione binaria dell’identità, compresi i controlli della posizione, del dispositivo, della rete e altri. Inevitabilmente, i criminali informatici guarderanno anche alle nuove opportunità offerte dalla ChatGPT.

Gli strumenti di intelligenza artificiale che interagiscono in modo conversazionale possono essere sfruttati dai criminali informatici per lanciare campagne di phishing o di acquisizione di account convincenti. In passato, poteva essere più facile individuare un attacco di phishing a causa della scarsa grammatica, delle frasi insolite o dei frequenti errori di ortografia così comuni nelle e-mail di phishing.

Questa situazione si sta rapidamente evolvendo grazie a soluzioni come ChatGPT, che utilizzano l’elaborazione del linguaggio naturale per creare il messaggio iniziale e poi generare risposte realistiche alle domande dell’utente target senza alcuno di questi indicatori rivelatori.

Per prepararsi ad affrontare gli attacchi basati sui chatbot, le organizzazioni devono ripensare gli approcci alla sicurezza per mitigare le potenziali minacce. Cinque misure che possono essere adottate sono:

Aggiornare la formazione dei dipendenti sui rischi del phishing.

I dipendenti che capiscono come si può sfruttare il ChatGPT saranno probabilmente più cauti nell’interagire con i chatbot e altre soluzioni supportate dall’intelligenza artificiale, evitando così di cadere vittime di questo tipo di attacchi.

Implementazione protocolli di autenticazione

Implementare protocolli di autenticazione forti per rendere più difficile agli aggressori l’accesso agli account. Gli aggressori sanno già come approfittare degli utenti stanchi di riautenticarsi attraverso gli strumenti di autenticazione multifattoriale (MFA), quindi sfruttare l’AI/ML per autenticare gli utenti attraverso la corrispondenza delle impronte digitali ed evitare del tutto le password può contribuire ad aumentare la sicurezza riducendo al contempo la fatica dell’MFA.

Adottare un modello a fiducia zero

Concedendo l’accesso solo dopo la verifica e garantendo l’accesso con il minor numero di privilegi, i responsabili della sicurezza possono creare un ambiente in cui, anche se un attaccante sfrutta il ChatGPT per aggirare gli utenti ignari, i criminali informatici dovranno comunque verificare la loro identità e, anche in questo caso, avranno accesso solo a risorse limitate.

Limitare l’accesso non solo degli sviluppatori, ma anche della leadership, compresa quella tecnica, al minimo indispensabile per svolgere efficacemente il proprio lavoro, può inizialmente incontrare delle resistenze, ma renderà più difficile per un aggressore sfruttare qualsiasi accesso non autorizzato a scopo di lucro.

Monitorare l’attività sugli account aziendali

Monitorare l’attività sugli account aziendali e utilizzare strumenti, tra cui filtri antispam, analisi comportamentale e filtraggio delle parole chiave, per identificare e bloccare i messaggi dannosi. I vostri dipendenti non possono essere vittime di un attacco di phishing, per quanto sofisticato sia il linguaggio, se non vedono mai il messaggio. La messa in quarantena dei messaggi dannosi in base al comportamento e alla relazione dei corrispondenti, piuttosto che a parole chiave specifiche, ha maggiori probabilità di bloccare i malintenzionati.

Sfruttare l’intelligenza artificiale

I cyberattacchi stanno già sfruttando l’intelligenza artificiale e la ChatGPT è solo un altro modo in cui la utilizzeranno per accedere agli ambienti dell’organizzazione. Le organizzazioni devono sfruttare le capacità offerte dall’AI/ML per migliorare la sicurezza informatica e rispondere più rapidamente alle minacce e alle potenziali violazioni.

Conclusioni

L’acquisizione di account tramite social engineering, lo sfruttamento di password provenienti da violazioni di dati e gli attacchi di phishing diventeranno sempre più frequenti e di maggior successo, nonostante le nostre migliori difese, dato che il ChatGPT è in grado di fornire risposte autentiche a richieste mirate. Aggiornando e adottando questi cinque approcci, le organizzazioni possono contribuire a ridurre i rischi per se stesse e per i propri dipendenti quando i chatbot e altri strumenti di intelligenza artificiale vengono utilizzati per scopi dannosi.

Traduzione dall’articolo : https://www.darkreading.com/vulnerabilities-threats/chatgpt-opens-new-opportunities-for-cybercriminals-5-ways-for-organizations-to-get-ready

Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Immagine del sito
Th3R3dP1ll

Direttore di Crociera per 6 mesi all'anno, parla Italiano, Inglese, Tedesco, Francese, Spagnolo, Portoghese, Russo e sta attualmente studiando Giapponese (quest'ultima senza grandi risultati... :) ). Detiene Comptia A+ , Network+ , Security+ Pentest+ ed eJPT e sta studiando per eCCPT e PNPT. Nel tempo libero fa sport e legge/ascolta libri dai 60 ai 120 minuti al giorno. Sostiene che con grandi poteri arrivino grandi responsabilitá, come quelle di educare chi ha difficoltà a navigare il mondo digitale ed eventualmente difenderlo/a dai “pirati” e dalle entità che danneggiano il pianeta e la libertà delle persone. Sostiene inoltre che il futuro naturale della vita biologica sia la fusione ed integrazione con il digitale, transizione che tra l'altro è già iniziata con il movimento del transumanesimo del quale é sostenitore.

Lista degli articoli

Articoli in evidenza

Immagine del sitoCybercrime
EDR Nel mirino: i forum underground mettono in vendita NtKiller
Redazione RHC - 25/12/2025

All’interno di un forum underground chiuso, frequentato da operatori malware e broker di accesso iniziale, è comparso un annuncio che ha attirato l’attenzione della comunità di cyber threat intelligence. Il post promuove “NtKiller”, una presunta…

Immagine del sitoCyber Italia
26 milioni di nomi e numeri telefonici di italiani messi all’asta nel Dark Web
Redazione RHC - 24/12/2025

Mentre la consapevolezza sulla cybersicurezza cresce, il mercato nero dei dati personali non accenna a fermarsi. Un recente post apparso su un noto forum frequentato da criminali informatici in lingua russa, scoperto dai ricercatori di…

Immagine del sitoInnovazione
Le botnet robot stanno arrivando! Gli umanoidi propagano malware autonomo
Redazione RHC - 24/12/2025

prima di leggere questo articolo, vogliamo dire una cosa fondamentale: la robotica sta avanzando più velocemente degli approcci per proteggerla. Le macchine stanno diventando più intelligenti e accessibili, ma la sicurezza delle interfacce, dei protocolli…

Immagine del sitoCybercrime
Webrat: quando la voglia di imparare sicurezza informatica diventa un vettore d’attacco
Redazione RHC - 24/12/2025

C’è un momento preciso, quasi sempre notturno, in cui la curiosità supera la prudenza. Un repository appena aperto, poche stelle ma un exploit dal punteggio altissimo, il file README scritto bene quanto basta da sembrare…

Immagine del sitoCybercrime
Cloud sotto tiro: la campagna PCPcat compromette 59.128 server in 48 ore
Redazione RHC - 24/12/2025

Una campagna di cyberspionaggio su larga scala, caratterizzata da un elevato livello di automazione, sta colpendo in modo sistematico l’infrastruttura cloud che supporta numerose applicazioni web moderne. In meno di 48 ore, decine di migliaia…