ChatGPT: attacchi e difese nell'era delle IA avanzate
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Crowdstriker 970×120
Banner Ransomfeed 320x100 1
ChatGPT apre nuove opportunità ai criminali informatici, 5 linee di difesa da adottare.

ChatGPT apre nuove opportunità ai criminali informatici, 5 linee di difesa da adottare.

Alessandro Molinari : 26 Gennaio 2023 07:00

Dall’aggiornamento della formazione dei dipendenti all’implementazione di protocolli di autenticazione più forti, fino al monitoraggio degli account aziendali e all’adozione di un modello di fiducia zero, le aziende possono preparare al meglio le difese contro gli attacchi potenziati dai chatbot.

Su LinkedIn, Slack, Twitter, e-mail e messaggi di testo, le persone condividono esempi creati con ChatGPT, il nuovo modello di intelligenza artificiale (AI) del team di OpenAI.

Utilizzando ChatGPT, è possibile produrre dialoghi che possono essere utilizzati per qualsiasi cosa, dalla risposta alle domande di follow-up in una chat online alla scrittura di poesie. Le imprese possono trarre vantaggio dalla nuova tecnologia dei chatbot in numerose occasioni, tra cui l’assistenza aziendale e le interazioni con i clienti.


Nuovo Fumetto Betti

CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? 
Conosci il nostro corso sul cybersecurity awareness a fumetti? 
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. 
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

La sua capacità di generare rapidamente testi e, secondo i suoi sviluppatori, di “rispondere alle domande successive, ammettere i propri errori, contestare le premesse errate e rifiutare le richieste inappropriate”, apre molte opportunità e alcune nuove sfide.

L’intelligenza artificiale e l’apprendimento automatico (ML) si stanno rapidamente spostando da soluzioni di nicchia in scenari aziendali ad alto costo/alta remunerazione verso implementazioni più estese in grado di risolvere una serie di sfide aziendali, in particolare quelle incentrate sugli utenti finali. La sicurezza informatica, ad esempio, sta ora abbracciando approcci basati sull’IA per fornire una maggiore protezione con team di sicurezza più piccoli.

Un esempio evidenzia come le organizzazioni possano utilizzare l’AI/ML per eseguire controlli dinamici e basati sul rischio quando qualcuno cerca di accedere ad applicazioni o dati sensibili. Questo sostituisce i vecchi approcci basati su policy, che possono richiedere molto tempo e interazione umana per sviluppare e mantenere le singole policy di accesso. In un’azienda di grandi dimensioni, la manutenzione di tali criteri potrebbe includere centinaia o addirittura migliaia di applicazioni e archivi di dati.

Utilizzo dell’IA per una maggiore efficienza

L’interesse per l’IA continua a esplodere, poiché gli attacchi moderni richiedono un rilevamento e una risposta rapidi ai comportamenti anomali degli utenti – qualcosa che un modello di IA può essere addestrato a identificare rapidamente, ma che richiede una notevole potenza umana per cercare di replicare manualmente.

L’obiettivo dell’IA è aumentare l’efficienza e la fiducia, riducendo al contempo l’attrito e migliorando l’interfaccia utente per gli utenti tipici. Le auto a guida autonoma, ad esempio, sono progettate per aumentare la sicurezza degli utenti finali.

Nella sicurezza informatica, in particolare nell’autenticazione degli utenti (umani e non), gli approcci basati sull’IA stanno avanzando rapidamente, lavorando con sistemi basati su regole per migliorare l’esperienza degli utenti finali.

In un mondo sempre più digitale, gli aggressori sono già in grado di eludere il rilevamento dell’autenticazione binaria dell’identità, compresi i controlli della posizione, del dispositivo, della rete e altri. Inevitabilmente, i criminali informatici guarderanno anche alle nuove opportunità offerte dalla ChatGPT.

Gli strumenti di intelligenza artificiale che interagiscono in modo conversazionale possono essere sfruttati dai criminali informatici per lanciare campagne di phishing o di acquisizione di account convincenti. In passato, poteva essere più facile individuare un attacco di phishing a causa della scarsa grammatica, delle frasi insolite o dei frequenti errori di ortografia così comuni nelle e-mail di phishing.

Questa situazione si sta rapidamente evolvendo grazie a soluzioni come ChatGPT, che utilizzano l’elaborazione del linguaggio naturale per creare il messaggio iniziale e poi generare risposte realistiche alle domande dell’utente target senza alcuno di questi indicatori rivelatori.

Per prepararsi ad affrontare gli attacchi basati sui chatbot, le organizzazioni devono ripensare gli approcci alla sicurezza per mitigare le potenziali minacce. Cinque misure che possono essere adottate sono:

Aggiornare la formazione dei dipendenti sui rischi del phishing.

I dipendenti che capiscono come si può sfruttare il ChatGPT saranno probabilmente più cauti nell’interagire con i chatbot e altre soluzioni supportate dall’intelligenza artificiale, evitando così di cadere vittime di questo tipo di attacchi.

Implementazione protocolli di autenticazione

Implementare protocolli di autenticazione forti per rendere più difficile agli aggressori l’accesso agli account. Gli aggressori sanno già come approfittare degli utenti stanchi di riautenticarsi attraverso gli strumenti di autenticazione multifattoriale (MFA), quindi sfruttare l’AI/ML per autenticare gli utenti attraverso la corrispondenza delle impronte digitali ed evitare del tutto le password può contribuire ad aumentare la sicurezza riducendo al contempo la fatica dell’MFA.

Adottare un modello a fiducia zero

Concedendo l’accesso solo dopo la verifica e garantendo l’accesso con il minor numero di privilegi, i responsabili della sicurezza possono creare un ambiente in cui, anche se un attaccante sfrutta il ChatGPT per aggirare gli utenti ignari, i criminali informatici dovranno comunque verificare la loro identità e, anche in questo caso, avranno accesso solo a risorse limitate.

Limitare l’accesso non solo degli sviluppatori, ma anche della leadership, compresa quella tecnica, al minimo indispensabile per svolgere efficacemente il proprio lavoro, può inizialmente incontrare delle resistenze, ma renderà più difficile per un aggressore sfruttare qualsiasi accesso non autorizzato a scopo di lucro.

Monitorare l’attività sugli account aziendali

Monitorare l’attività sugli account aziendali e utilizzare strumenti, tra cui filtri antispam, analisi comportamentale e filtraggio delle parole chiave, per identificare e bloccare i messaggi dannosi. I vostri dipendenti non possono essere vittime di un attacco di phishing, per quanto sofisticato sia il linguaggio, se non vedono mai il messaggio. La messa in quarantena dei messaggi dannosi in base al comportamento e alla relazione dei corrispondenti, piuttosto che a parole chiave specifiche, ha maggiori probabilità di bloccare i malintenzionati.

Sfruttare l’intelligenza artificiale

I cyberattacchi stanno già sfruttando l’intelligenza artificiale e la ChatGPT è solo un altro modo in cui la utilizzeranno per accedere agli ambienti dell’organizzazione. Le organizzazioni devono sfruttare le capacità offerte dall’AI/ML per migliorare la sicurezza informatica e rispondere più rapidamente alle minacce e alle potenziali violazioni.

Conclusioni

L’acquisizione di account tramite social engineering, lo sfruttamento di password provenienti da violazioni di dati e gli attacchi di phishing diventeranno sempre più frequenti e di maggior successo, nonostante le nostre migliori difese, dato che il ChatGPT è in grado di fornire risposte autentiche a richieste mirate. Aggiornando e adottando questi cinque approcci, le organizzazioni possono contribuire a ridurre i rischi per se stesse e per i propri dipendenti quando i chatbot e altri strumenti di intelligenza artificiale vengono utilizzati per scopi dannosi.

Traduzione dall’articolo : https://www.darkreading.com/vulnerabilities-threats/chatgpt-opens-new-opportunities-for-cybercriminals-5-ways-for-organizations-to-get-ready

Immagine del sitoTh3R3dP1ll
Direttore di Crociera per 6 mesi all'anno, parla Italiano, Inglese, Tedesco, Francese, Spagnolo, Portoghese, Russo e sta attualmente studiando Giapponese (quest'ultima senza grandi risultati... :) ). Detiene Comptia A+ , Network+ , Security+ Pentest+ ed eJPT e sta studiando per eCCPT e PNPT. Nel tempo libero fa sport e legge/ascolta libri dai 60 ai 120 minuti al giorno. Sostiene che con grandi poteri arrivino grandi responsabilitá, come quelle di educare chi ha difficoltà a navigare il mondo digitale ed eventualmente difenderlo/a dai “pirati” e dalle entità che danneggiano il pianeta e la libertà delle persone. Sostiene inoltre che il futuro naturale della vita biologica sia la fusione ed integrazione con il digitale, transizione che tra l'altro è già iniziata con il movimento del transumanesimo del quale é sostenitore.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Cloudflare dichiara guerra a Google e alle AI. 416 miliardi di richieste di bot bloccate
Di Redazione RHC - 05/12/2025

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Immagine del sito
React2Shell = Log4shell: 87.000 server in Italia a rischio compromissione
Di Redazione RHC - 05/12/2025

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Immagine del sito
Cloudflare di nuovo in down: disservizi su Dashboard, API e ora anche sui Workers
Di Redazione RHC - 05/12/2025

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Immagine del sito
Backdoor Brickstorm: le spie cinesi sono rimasti silenti nelle reti critiche per anni
Di Redazione RHC - 05/12/2025

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Immagine del sito
La Commissione Europea indaga su Meta per l’integrazione dell’AI in WhatsApp
Di Redazione RHC - 05/12/2025

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...