
I funzionari britannici stanno mettendo in guardia le aziende dall’integrazione dei chatbot basati sull’intelligenza artificiale poiché la ricerca ha dimostrato che possono essere indotti con l’inganno a eseguire azioni dannose.
In due post sul blog pubblicati mercoledì, il National Cyber Security Center ( NCSC ) del Regno Unito ha indicato che gli esperti non hanno ancora valutato tutti i potenziali problemi di sicurezza associati agli algoritmi in grado di creare interazioni di tipo umano – i cosiddetti modelli linguistici di grandi dimensioni (LLM).
Gli strumenti basati sull’intelligenza artificiale stanno iniziando a essere utilizzati come chatbot, che secondo alcuni sostituiranno non solo le ricerche sul web, ma anche il lavoro del servizio clienti e le chiamate di vendita.
L’NCSC ha messo in guardia dai rischi, soprattutto se tali modelli vengono integrati nei processi aziendali. I ricercatori hanno scoperto che i chatbot possono essere ingannati impartendo comandi dannosi o aggirando i meccanismi di protezione integrati. Ad esempio, un chatbot utilizzato da una banca può essere indotto con l’inganno a eseguire una transazione non autorizzata.
L’NCSC afferma in uno dei suoi post: “Le organizzazioni che sviluppano servizi basati su LLM dovrebbero prestare la stessa cautela come se utilizzassero un prodotto o una libreria di codici in beta testing. LLM dovrebbe essere affrontato con la stessa cautela”.
Le autorità di tutto il mondo sono alle prese con l’ascesa di programmi LLM come ChatGPT di OpenAI, che le aziende stanno incorporando in una vasta gamma di servizi, comprese le vendite e il servizio clienti. Anche l’impatto dell’intelligenza artificiale sulla sicurezza è ancora sotto i riflettori, con le autorità statunitensi e canadesi che affermano di aver visto gli hacker utilizzare questa tecnologia.
Oselokka Obiora, CTO della società di sicurezza informatica RiverSafe, ha affermato che la corsa per integrare l’intelligenza artificiale nelle pratiche aziendali sarebbe “disastrosa” se i leader aziendali non introducessero i controlli necessari.
“Prima di seguire le ultime tendenze nel campo dell’intelligenza artificiale, i top manager devono rivalutare la situazione, valutare i pro e i contro e implementare le necessarie misure di difesa informatica”, ha affermato.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…