Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Integrare i Large Language Model nelle aziende è un errore, avverte il National Cyber ​​​​Security Center del Regno unito

Integrare i Large Language Model nelle aziende è un errore, avverte il National Cyber ​​​​Security Center del Regno unito

31 Agosto 2023 11:41

I funzionari britannici stanno mettendo in guardia le aziende dall’integrazione dei chatbot basati sull’intelligenza artificiale poiché la ricerca ha dimostrato che possono essere indotti con l’inganno a eseguire azioni dannose.

In due post sul blog pubblicati mercoledì, il National Cyber ​​​​Security Center ( NCSC ) del Regno Unito ha indicato che gli esperti non hanno ancora valutato tutti i potenziali problemi di sicurezza associati agli algoritmi in grado di creare interazioni di tipo umano – i cosiddetti modelli linguistici di grandi dimensioni (LLM).

Gli strumenti basati sull’intelligenza artificiale stanno iniziando a essere utilizzati come chatbot, che secondo alcuni sostituiranno non solo le ricerche sul web, ma anche il lavoro del servizio clienti e le chiamate di vendita. 

Advertising

L’NCSC ha messo in guardia dai rischi, soprattutto se tali modelli vengono integrati nei processi aziendali. I ricercatori hanno scoperto che i chatbot possono essere ingannati impartendo comandi dannosi o aggirando i meccanismi di protezione integrati. Ad esempio, un chatbot utilizzato da una banca può essere indotto con l’inganno a eseguire una transazione non autorizzata.

L’NCSC afferma in uno dei suoi post: “Le organizzazioni che sviluppano servizi basati su LLM dovrebbero prestare la stessa cautela come se utilizzassero un prodotto o una libreria di codici in beta testing. LLM dovrebbe essere affrontato con la stessa cautela”.

Le autorità di tutto il mondo sono alle prese con l’ascesa di programmi LLM come ChatGPT di OpenAI, che le aziende stanno incorporando in una vasta gamma di servizi, comprese le vendite e il servizio clienti. Anche l’impatto dell’intelligenza artificiale sulla sicurezza è ancora sotto i riflettori, con le autorità statunitensi e canadesi che affermano di aver visto gli hacker utilizzare questa tecnologia.

Oselokka Obiora, CTO della società di sicurezza informatica RiverSafe, ha affermato che la corsa per integrare l’intelligenza artificiale nelle pratiche aziendali sarebbe “disastrosa” se i leader aziendali non introducessero i controlli necessari.

“Prima di seguire le ultime tendenze nel campo dell’intelligenza artificiale, i top manager devono rivalutare la situazione, valutare i pro e i contro e implementare le necessarie misure di difesa informatica”, ha affermato.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.