Red Hot Cyber

Sicurezza informatica, cybercrime, hack
news, e altro ancora

ChatGPT apre nuove opportunità ai criminali informatici, 5 linee di difesa da adottare.

Dall’aggiornamento della formazione dei dipendenti all’implementazione di protocolli di autenticazione più forti, fino al monitoraggio degli account aziendali e all’adozione di un modello di fiducia zero, le aziende possono preparare al meglio le difese contro gli attacchi potenziati dai chatbot.

Su LinkedIn, Slack, Twitter, e-mail e messaggi di testo, le persone condividono esempi creati con ChatGPT, il nuovo modello di intelligenza artificiale (AI) del team di OpenAI.

Utilizzando ChatGPT, è possibile produrre dialoghi che possono essere utilizzati per qualsiasi cosa, dalla risposta alle domande di follow-up in una chat online alla scrittura di poesie. Le imprese possono trarre vantaggio dalla nuova tecnologia dei chatbot in numerose occasioni, tra cui l’assistenza aziendale e le interazioni con i clienti.

La sua capacità di generare rapidamente testi e, secondo i suoi sviluppatori, di “rispondere alle domande successive, ammettere i propri errori, contestare le premesse errate e rifiutare le richieste inappropriate”, apre molte opportunità e alcune nuove sfide.

L’intelligenza artificiale e l’apprendimento automatico (ML) si stanno rapidamente spostando da soluzioni di nicchia in scenari aziendali ad alto costo/alta remunerazione verso implementazioni più estese in grado di risolvere una serie di sfide aziendali, in particolare quelle incentrate sugli utenti finali. La sicurezza informatica, ad esempio, sta ora abbracciando approcci basati sull’IA per fornire una maggiore protezione con team di sicurezza più piccoli.

Un esempio evidenzia come le organizzazioni possano utilizzare l’AI/ML per eseguire controlli dinamici e basati sul rischio quando qualcuno cerca di accedere ad applicazioni o dati sensibili. Questo sostituisce i vecchi approcci basati su policy, che possono richiedere molto tempo e interazione umana per sviluppare e mantenere le singole policy di accesso. In un’azienda di grandi dimensioni, la manutenzione di tali criteri potrebbe includere centinaia o addirittura migliaia di applicazioni e archivi di dati.

Utilizzo dell’IA per una maggiore efficienza

L’interesse per l’IA continua a esplodere, poiché gli attacchi moderni richiedono un rilevamento e una risposta rapidi ai comportamenti anomali degli utenti – qualcosa che un modello di IA può essere addestrato a identificare rapidamente, ma che richiede una notevole potenza umana per cercare di replicare manualmente.

L’obiettivo dell’IA è aumentare l’efficienza e la fiducia, riducendo al contempo l’attrito e migliorando l’interfaccia utente per gli utenti tipici. Le auto a guida autonoma, ad esempio, sono progettate per aumentare la sicurezza degli utenti finali.

Nella sicurezza informatica, in particolare nell’autenticazione degli utenti (umani e non), gli approcci basati sull’IA stanno avanzando rapidamente, lavorando con sistemi basati su regole per migliorare l’esperienza degli utenti finali.

In un mondo sempre più digitale, gli aggressori sono già in grado di eludere il rilevamento dell’autenticazione binaria dell’identità, compresi i controlli della posizione, del dispositivo, della rete e altri. Inevitabilmente, i criminali informatici guarderanno anche alle nuove opportunità offerte dalla ChatGPT.

Gli strumenti di intelligenza artificiale che interagiscono in modo conversazionale possono essere sfruttati dai criminali informatici per lanciare campagne di phishing o di acquisizione di account convincenti. In passato, poteva essere più facile individuare un attacco di phishing a causa della scarsa grammatica, delle frasi insolite o dei frequenti errori di ortografia così comuni nelle e-mail di phishing.

Questa situazione si sta rapidamente evolvendo grazie a soluzioni come ChatGPT, che utilizzano l’elaborazione del linguaggio naturale per creare il messaggio iniziale e poi generare risposte realistiche alle domande dell’utente target senza alcuno di questi indicatori rivelatori.

Per prepararsi ad affrontare gli attacchi basati sui chatbot, le organizzazioni devono ripensare gli approcci alla sicurezza per mitigare le potenziali minacce. Cinque misure che possono essere adottate sono:

Aggiornare la formazione dei dipendenti sui rischi del phishing.

I dipendenti che capiscono come si può sfruttare il ChatGPT saranno probabilmente più cauti nell’interagire con i chatbot e altre soluzioni supportate dall’intelligenza artificiale, evitando così di cadere vittime di questo tipo di attacchi.

Implementazione protocolli di autenticazione

Implementare protocolli di autenticazione forti per rendere più difficile agli aggressori l’accesso agli account. Gli aggressori sanno già come approfittare degli utenti stanchi di riautenticarsi attraverso gli strumenti di autenticazione multifattoriale (MFA), quindi sfruttare l’AI/ML per autenticare gli utenti attraverso la corrispondenza delle impronte digitali ed evitare del tutto le password può contribuire ad aumentare la sicurezza riducendo al contempo la fatica dell’MFA.

Adottare un modello a fiducia zero

Concedendo l’accesso solo dopo la verifica e garantendo l’accesso con il minor numero di privilegi, i responsabili della sicurezza possono creare un ambiente in cui, anche se un attaccante sfrutta il ChatGPT per aggirare gli utenti ignari, i criminali informatici dovranno comunque verificare la loro identità e, anche in questo caso, avranno accesso solo a risorse limitate.

Limitare l’accesso non solo degli sviluppatori, ma anche della leadership, compresa quella tecnica, al minimo indispensabile per svolgere efficacemente il proprio lavoro, può inizialmente incontrare delle resistenze, ma renderà più difficile per un aggressore sfruttare qualsiasi accesso non autorizzato a scopo di lucro.

Monitorare l’attività sugli account aziendali

Monitorare l’attività sugli account aziendali e utilizzare strumenti, tra cui filtri antispam, analisi comportamentale e filtraggio delle parole chiave, per identificare e bloccare i messaggi dannosi. I vostri dipendenti non possono essere vittime di un attacco di phishing, per quanto sofisticato sia il linguaggio, se non vedono mai il messaggio. La messa in quarantena dei messaggi dannosi in base al comportamento e alla relazione dei corrispondenti, piuttosto che a parole chiave specifiche, ha maggiori probabilità di bloccare i malintenzionati.

Sfruttare l’intelligenza artificiale

I cyberattacchi stanno già sfruttando l’intelligenza artificiale e la ChatGPT è solo un altro modo in cui la utilizzeranno per accedere agli ambienti dell’organizzazione. Le organizzazioni devono sfruttare le capacità offerte dall’AI/ML per migliorare la sicurezza informatica e rispondere più rapidamente alle minacce e alle potenziali violazioni.

Conclusioni

L’acquisizione di account tramite social engineering, lo sfruttamento di password provenienti da violazioni di dati e gli attacchi di phishing diventeranno sempre più frequenti e di maggior successo, nonostante le nostre migliori difese, dato che il ChatGPT è in grado di fornire risposte autentiche a richieste mirate. Aggiornando e adottando questi cinque approcci, le organizzazioni possono contribuire a ridurre i rischi per se stesse e per i propri dipendenti quando i chatbot e altri strumenti di intelligenza artificiale vengono utilizzati per scopi dannosi.

Traduzione dall’articolo : https://www.darkreading.com/vulnerabilities-threats/chatgpt-opens-new-opportunities-for-cybercriminals-5-ways-for-organizations-to-get-ready