
Alessandro Molinari : 26 Gennaio 2023 07:00
Dall’aggiornamento della formazione dei dipendenti all’implementazione di protocolli di autenticazione più forti, fino al monitoraggio degli account aziendali e all’adozione di un modello di fiducia zero, le aziende possono preparare al meglio le difese contro gli attacchi potenziati dai chatbot.
Su LinkedIn, Slack, Twitter, e-mail e messaggi di testo, le persone condividono esempi creati con ChatGPT, il nuovo modello di intelligenza artificiale (AI) del team di OpenAI.
Utilizzando ChatGPT, è possibile produrre dialoghi che possono essere utilizzati per qualsiasi cosa, dalla risposta alle domande di follow-up in una chat online alla scrittura di poesie. Le imprese possono trarre vantaggio dalla nuova tecnologia dei chatbot in numerose occasioni, tra cui l’assistenza aziendale e le interazioni con i clienti.
Sponsorizza la prossima Red Hot Cyber Conference! Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La sua capacità di generare rapidamente testi e, secondo i suoi sviluppatori, di “rispondere alle domande successive, ammettere i propri errori, contestare le premesse errate e rifiutare le richieste inappropriate”, apre molte opportunità e alcune nuove sfide.
L’intelligenza artificiale e l’apprendimento automatico (ML) si stanno rapidamente spostando da soluzioni di nicchia in scenari aziendali ad alto costo/alta remunerazione verso implementazioni più estese in grado di risolvere una serie di sfide aziendali, in particolare quelle incentrate sugli utenti finali. La sicurezza informatica, ad esempio, sta ora abbracciando approcci basati sull’IA per fornire una maggiore protezione con team di sicurezza più piccoli.

Un esempio evidenzia come le organizzazioni possano utilizzare l’AI/ML per eseguire controlli dinamici e basati sul rischio quando qualcuno cerca di accedere ad applicazioni o dati sensibili. Questo sostituisce i vecchi approcci basati su policy, che possono richiedere molto tempo e interazione umana per sviluppare e mantenere le singole policy di accesso. In un’azienda di grandi dimensioni, la manutenzione di tali criteri potrebbe includere centinaia o addirittura migliaia di applicazioni e archivi di dati.
L’interesse per l’IA continua a esplodere, poiché gli attacchi moderni richiedono un rilevamento e una risposta rapidi ai comportamenti anomali degli utenti – qualcosa che un modello di IA può essere addestrato a identificare rapidamente, ma che richiede una notevole potenza umana per cercare di replicare manualmente.
L’obiettivo dell’IA è aumentare l’efficienza e la fiducia, riducendo al contempo l’attrito e migliorando l’interfaccia utente per gli utenti tipici. Le auto a guida autonoma, ad esempio, sono progettate per aumentare la sicurezza degli utenti finali.
Nella sicurezza informatica, in particolare nell’autenticazione degli utenti (umani e non), gli approcci basati sull’IA stanno avanzando rapidamente, lavorando con sistemi basati su regole per migliorare l’esperienza degli utenti finali.
In un mondo sempre più digitale, gli aggressori sono già in grado di eludere il rilevamento dell’autenticazione binaria dell’identità, compresi i controlli della posizione, del dispositivo, della rete e altri. Inevitabilmente, i criminali informatici guarderanno anche alle nuove opportunità offerte dalla ChatGPT.
Gli strumenti di intelligenza artificiale che interagiscono in modo conversazionale possono essere sfruttati dai criminali informatici per lanciare campagne di phishing o di acquisizione di account convincenti. In passato, poteva essere più facile individuare un attacco di phishing a causa della scarsa grammatica, delle frasi insolite o dei frequenti errori di ortografia così comuni nelle e-mail di phishing.
Questa situazione si sta rapidamente evolvendo grazie a soluzioni come ChatGPT, che utilizzano l’elaborazione del linguaggio naturale per creare il messaggio iniziale e poi generare risposte realistiche alle domande dell’utente target senza alcuno di questi indicatori rivelatori.

Per prepararsi ad affrontare gli attacchi basati sui chatbot, le organizzazioni devono ripensare gli approcci alla sicurezza per mitigare le potenziali minacce. Cinque misure che possono essere adottate sono:
I dipendenti che capiscono come si può sfruttare il ChatGPT saranno probabilmente più cauti nell’interagire con i chatbot e altre soluzioni supportate dall’intelligenza artificiale, evitando così di cadere vittime di questo tipo di attacchi.
Implementare protocolli di autenticazione forti per rendere più difficile agli aggressori l’accesso agli account. Gli aggressori sanno già come approfittare degli utenti stanchi di riautenticarsi attraverso gli strumenti di autenticazione multifattoriale (MFA), quindi sfruttare l’AI/ML per autenticare gli utenti attraverso la corrispondenza delle impronte digitali ed evitare del tutto le password può contribuire ad aumentare la sicurezza riducendo al contempo la fatica dell’MFA.
Concedendo l’accesso solo dopo la verifica e garantendo l’accesso con il minor numero di privilegi, i responsabili della sicurezza possono creare un ambiente in cui, anche se un attaccante sfrutta il ChatGPT per aggirare gli utenti ignari, i criminali informatici dovranno comunque verificare la loro identità e, anche in questo caso, avranno accesso solo a risorse limitate.
Limitare l’accesso non solo degli sviluppatori, ma anche della leadership, compresa quella tecnica, al minimo indispensabile per svolgere efficacemente il proprio lavoro, può inizialmente incontrare delle resistenze, ma renderà più difficile per un aggressore sfruttare qualsiasi accesso non autorizzato a scopo di lucro.
Monitorare l’attività sugli account aziendali e utilizzare strumenti, tra cui filtri antispam, analisi comportamentale e filtraggio delle parole chiave, per identificare e bloccare i messaggi dannosi. I vostri dipendenti non possono essere vittime di un attacco di phishing, per quanto sofisticato sia il linguaggio, se non vedono mai il messaggio. La messa in quarantena dei messaggi dannosi in base al comportamento e alla relazione dei corrispondenti, piuttosto che a parole chiave specifiche, ha maggiori probabilità di bloccare i malintenzionati.

I cyberattacchi stanno già sfruttando l’intelligenza artificiale e la ChatGPT è solo un altro modo in cui la utilizzeranno per accedere agli ambienti dell’organizzazione. Le organizzazioni devono sfruttare le capacità offerte dall’AI/ML per migliorare la sicurezza informatica e rispondere più rapidamente alle minacce e alle potenziali violazioni.
L’acquisizione di account tramite social engineering, lo sfruttamento di password provenienti da violazioni di dati e gli attacchi di phishing diventeranno sempre più frequenti e di maggior successo, nonostante le nostre migliori difese, dato che il ChatGPT è in grado di fornire risposte autentiche a richieste mirate. Aggiornando e adottando questi cinque approcci, le organizzazioni possono contribuire a ridurre i rischi per se stesse e per i propri dipendenti quando i chatbot e altri strumenti di intelligenza artificiale vengono utilizzati per scopi dannosi.
Traduzione dall’articolo : https://www.darkreading.com/vulnerabilities-threats/chatgpt-opens-new-opportunities-for-cybercriminals-5-ways-for-organizations-to-get-ready
Th3R3dP1ll
Capire davvero cos’è il ransomware non è semplice: tra notizie frammentate e articoli tecnici, chi cerca risposte rischia di perdersi in un mare di informazioni confuse. Questo articolo nasce per ...

Hai sempre pensato che il Dark Web sia frequentato dai criminali informatici? Hai sempre pensato che il Dark Web sia una rete pericolosa e piena di insidie? Oggi vogliamo sfatare questo mito e creare ...

Il rapporto finanziario di Microsoft indica che OpenAI potrebbe aver perso 12 miliardi di dollari nell’ultimo trimestre fiscale. Una spesa nel rapporto sugli utili di Microsoft (517.81, -7.95, -1.51...

Negli ultimi anni la cybersecurity è balzata in cima all’agenda di imprese, istituzioni e pubblica amministrazione. Ma se guardiamo ai numeri, l’Italia sembra ancora correre con le scarpe legate:...

L’evento che ha scosso il mondo il 19 ottobre 2025 non è stato un disastro naturale o un crollo finanziario, ma il clamoroso furto dei gioielli di Napoleone dal Museo del Louvre. Al di là del valo...