
Redazione RHC : 31 Agosto 2023 11:41
I funzionari britannici stanno mettendo in guardia le aziende dall’integrazione dei chatbot basati sull’intelligenza artificiale poiché la ricerca ha dimostrato che possono essere indotti con l’inganno a eseguire azioni dannose.
In due post sul blog pubblicati mercoledì, il National Cyber Security Center ( NCSC ) del Regno Unito ha indicato che gli esperti non hanno ancora valutato tutti i potenziali problemi di sicurezza associati agli algoritmi in grado di creare interazioni di tipo umano – i cosiddetti modelli linguistici di grandi dimensioni (LLM).
Gli strumenti basati sull’intelligenza artificiale stanno iniziando a essere utilizzati come chatbot, che secondo alcuni sostituiranno non solo le ricerche sul web, ma anche il lavoro del servizio clienti e le chiamate di vendita.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
L’NCSC ha messo in guardia dai rischi, soprattutto se tali modelli vengono integrati nei processi aziendali. I ricercatori hanno scoperto che i chatbot possono essere ingannati impartendo comandi dannosi o aggirando i meccanismi di protezione integrati. Ad esempio, un chatbot utilizzato da una banca può essere indotto con l’inganno a eseguire una transazione non autorizzata.
L’NCSC afferma in uno dei suoi post: “Le organizzazioni che sviluppano servizi basati su LLM dovrebbero prestare la stessa cautela come se utilizzassero un prodotto o una libreria di codici in beta testing. LLM dovrebbe essere affrontato con la stessa cautela”.
Le autorità di tutto il mondo sono alle prese con l’ascesa di programmi LLM come ChatGPT di OpenAI, che le aziende stanno incorporando in una vasta gamma di servizi, comprese le vendite e il servizio clienti. Anche l’impatto dell’intelligenza artificiale sulla sicurezza è ancora sotto i riflettori, con le autorità statunitensi e canadesi che affermano di aver visto gli hacker utilizzare questa tecnologia.
Oselokka Obiora, CTO della società di sicurezza informatica RiverSafe, ha affermato che la corsa per integrare l’intelligenza artificiale nelle pratiche aziendali sarebbe “disastrosa” se i leader aziendali non introducessero i controlli necessari.
“Prima di seguire le ultime tendenze nel campo dell’intelligenza artificiale, i top manager devono rivalutare la situazione, valutare i pro e i contro e implementare le necessarie misure di difesa informatica”, ha affermato.
Redazione
Un nuovo allarme arriva dal sottobosco del cybercrime arriva poche ore fa. A segnalarlo l’azienda ParagonSec, società specializzata nel monitoraggio delle attività delle cyber gang e dei marketpla...

Cisco Talos ha identificato una nuova campagna ransomware chiamata DeadLock: gli aggressori sfruttano un driver antivirus Baidu vulnerabile (CVE-2024-51324) per disabilitare i sistemi EDR tramite la t...

Quanto avevamo scritto nell’articolo “Codice Patriottico: da DDoSia e NoName057(16) al CISM, l’algoritmo che plasma la gioventù per Putin” su Red Hot Cyber il 23 luglio scorso trova oggi pien...

Notepad++ è spesso preso di mira da malintenzionati perché il software è popolare e ampiamente utilizzato. Una vulnerabilità recentemente scoperta nell’editor di testo e codice open source Notep...

Una vulnerabilità critica associata all’esecuzione di codice remoto (RCE) in Outlook è stata sanata da Microsoft, potenzialmente consentendo a malintenzionati di attivare codice dannoso su sistemi...