Redazione RHC : 20 Novembre 2024 14:55
Una ricerca del Capgemini Research Institute ha rilevato una schiacciante maggioranza (97%) delle organizzazioni che hanno segnalato incidenti di sicurezza correlati alla Gen AI nell’ultimo anno. Le organizzazioni devono fare i conti con una superficie di attacco ampliata a causa di rischi quali iniezione rapida, vulnerabilità nelle applicazioni integrate con l’IA, IA underground e uso improprio interno.
Inoltre, l’intero ciclo di vita delle soluzioni Gen AI, dalla raccolta dei dati aziendali e dalla personalizzazione del modello allo sviluppo e alla manutenzione, deve essere protetto.
Oltre la metà (52%) ha indicato perdite dirette e indirette di almeno 50 milioni di dollari derivanti da questi incidenti. Di conseguenza, quasi sei su dieci (62%) hanno affermato di aver bisogno di aumentare i propri budget per mitigare i rischi.
![]() CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Capgemini ha affermato che i problemi di sicurezza sono stati causati dall’aumento della sofisticatezza degli attacchi da parte di una gamma più ampia di avversari, nonché dall’espansione della superficie di attacco informatico e dalle vulnerabilità riscontrate in tutti gli aspetti delle soluzioni di intelligenza artificiale generativa personalizzate.
Allo stesso tempo, l’uso improprio dell’IA generativa da parte dei dipendenti può aumentare significativamente il rischio di fuga di dati. Due organizzazioni su tre hanno affermato di essere preoccupate per l’avvelenamento dei dati e la possibile fuga di dati sensibili attraverso la raccolta di dati utilizzati per addestrare modelli di IA generativa.
L’intelligenza artificiale può introdurre rischi aggiuntivi tramite il materiale che produce, tra cui allucinazioni, generazione di contenuti distorti, dannosi o inappropriati. Inoltre il 43% degli intervistati ha affermato di aver subito perdite finanziarie tramite l’uso di deepfake.
Non sono tutte cattive notizie. L’intelligenza artificiale viene utilizzata per analizzare rapidamente grandi quantità di dati, identificare modelli e prevedere potenziali violazioni, rafforzando la sicurezza nei dati aziendali, nelle applicazioni e nel cloud.
Oltre sei intervistati su dieci (64%) hanno segnalato una riduzione di almeno il 5% nei tempi di rilevamento e quasi il 40% ha affermato che i tempi di correzione sono diminuiti del 5% o più dopo aver implementato l’intelligenza artificiale nei propri centri operativi di sicurezza (SOC).
Tre su cinque (60%) delle organizzazioni intervistate hanno affermato che l’intelligenza artificiale è essenziale per una risposta efficace alle minacce, consentendo loro di implementare strategie di sicurezza proattive contro autori di minacce sempre più sofisticati.
Lo stesso numero prevede che l’intelligenza artificiale generativa rafforzerà potenzialmente le strategie di difesa proattiva a lungo termine attraverso un rilevamento più rapido delle minacce, con oltre la metà (58%) che ritiene inoltre che la tecnologia consentirà agli analisti della sicurezza informatica di concentrarsi maggiormente sulla strategia per combattere le minacce complesse.
Marco Pereira, responsabile globale dei servizi di sicurezza informatica, cloud e infrastruttura di Capgemini, ha affermato che la ricerca suggerisce che l’intelligenza artificiale generativa si sta rivelando un’arma a doppio taglio per le aziende. “Sebbene introduca rischi senza precedenti, le organizzazioni si affidano sempre di più all’intelligenza artificiale per un rilevamento più rapido e accurato degli incidenti informatici”, ha affermato.
“L’intelligenza artificiale e l’intelligenza artificiale generativa forniscono ai team di sicurezza nuovi potenti strumenti per mitigare questi incidenti e trasformare le loro strategie di difesa”, ha aggiunto Pereira. “Per garantire che rappresentino un vantaggio netto di fronte all’evoluzione della sofisticatezza delle minacce, le organizzazioni devono mantenere e dare priorità al monitoraggio continuo del panorama della sicurezza, creare l’infrastruttura di gestione dei dati, i framework e le linee guida etiche necessarie per l’adozione dell’intelligenza artificiale e stabilire solidi programmi di formazione e sensibilizzazione dei dipendenti”.
Un nuovo post sul dark web offre l’accesso completo a migliaia di server e database MySQL appartenenti a provider italiani di hosting condiviso. Nelle ultime ore è apparso su un forum underground u...
Un grave incidente di sicurezza è stato segnalato da F5, principale fornitore di soluzioni per la sicurezza e la distribuzione delle applicazioni. Era stato ottenuto l’accesso a lungo termine ai si...
Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicur...
Nel suo ultimo aggiornamento, il colosso della tecnologia ha risolto 175 vulnerabilità che interessano i suoi prodotti principali e i sistemi sottostanti, tra cui due vulnerabilità zero-day attivame...
Nonostante Internet Explorer sia ufficialmente fuori supporto dal giugno 2022, Microsoft ha recentemente dovuto affrontare una minaccia che sfrutta la modalità Internet Explorer (IE Mode) in Edge, pr...