Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Integrare i Large Language Model nelle aziende è un errore, avverte il National Cyber ​​​​Security Center del Regno unito

Redazione RHC : 31 Agosto 2023 11:41

I funzionari britannici stanno mettendo in guardia le aziende dall’integrazione dei chatbot basati sull’intelligenza artificiale poiché la ricerca ha dimostrato che possono essere indotti con l’inganno a eseguire azioni dannose.

In due post sul blog pubblicati mercoledì, il National Cyber ​​​​Security Center ( NCSC ) del Regno Unito ha indicato che gli esperti non hanno ancora valutato tutti i potenziali problemi di sicurezza associati agli algoritmi in grado di creare interazioni di tipo umano – i cosiddetti modelli linguistici di grandi dimensioni (LLM).

Gli strumenti basati sull’intelligenza artificiale stanno iniziando a essere utilizzati come chatbot, che secondo alcuni sostituiranno non solo le ricerche sul web, ma anche il lavoro del servizio clienti e le chiamate di vendita. 


Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber

«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi». Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca. Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare. Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.

Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]


Supporta RHC attraverso:
  • L'acquisto del fumetto sul Cybersecurity Awareness
  • Ascoltando i nostri Podcast
  • Seguendo RHC su WhatsApp
  • Seguendo RHC su Telegram
  • Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab


  • Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


    L’NCSC ha messo in guardia dai rischi, soprattutto se tali modelli vengono integrati nei processi aziendali. I ricercatori hanno scoperto che i chatbot possono essere ingannati impartendo comandi dannosi o aggirando i meccanismi di protezione integrati. Ad esempio, un chatbot utilizzato da una banca può essere indotto con l’inganno a eseguire una transazione non autorizzata.

    L’NCSC afferma in uno dei suoi post: “Le organizzazioni che sviluppano servizi basati su LLM dovrebbero prestare la stessa cautela come se utilizzassero un prodotto o una libreria di codici in beta testing. LLM dovrebbe essere affrontato con la stessa cautela”.

    Le autorità di tutto il mondo sono alle prese con l’ascesa di programmi LLM come ChatGPT di OpenAI, che le aziende stanno incorporando in una vasta gamma di servizi, comprese le vendite e il servizio clienti. Anche l’impatto dell’intelligenza artificiale sulla sicurezza è ancora sotto i riflettori, con le autorità statunitensi e canadesi che affermano di aver visto gli hacker utilizzare questa tecnologia.

    Oselokka Obiora, CTO della società di sicurezza informatica RiverSafe, ha affermato che la corsa per integrare l’intelligenza artificiale nelle pratiche aziendali sarebbe “disastrosa” se i leader aziendali non introducessero i controlli necessari.

    “Prima di seguire le ultime tendenze nel campo dell’intelligenza artificiale, i top manager devono rivalutare la situazione, valutare i pro e i contro e implementare le necessarie misure di difesa informatica”, ha affermato.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Lista degli articoli

    Articoli in evidenza

    Il progetto Dojo di Tesla è morto. Una scommessa tecnologica finita in clamoroso fiasco
    Di Redazione RHC - 18/08/2025

    Il 23 luglio 2025, Tesla tenne la sua conference call sui risultati del secondo trimestre. Elon Musk , come di consueto, trasmise a Wall Street il suo contagioso ottimismo. Parlando di Dojo, il superc...

    RIP Microsoft PowerShell 2.0! Tra Agosto e Settembre la fine di un’era
    Di Redazione RHC - 18/08/2025

    Microsoft rimuoverà PowerShell 2.0 da Windows a partire da agosto, anni dopo averne annunciato la dismissione e averlo mantenuto come funzionalità opzionale. Il processore dei comandi vecchi...

    SQLite, Nginx e Apache crollano in un giorno. Hacker e Agenti AI rivoluzioneranno il bug hunting?
    Di Redazione RHC - 17/08/2025

    Sviluppare agenti di intelligenza artificiale in grado di individuare vulnerabilità in sistemi complessi è ancora un compito impegnativo che richiede molto lavoro manuale. Tuttavia, tali age...

    Arriva il primo UTERO ROBOTICO al mondo: un androide partorirà bambini entro il 2026?
    Di Redazione RHC - 17/08/2025

    L’azienda cinese Kaiwa Technology, con sede a Guangzhou, ha annunciato l’intenzione di creare il primo “utero robotico” al mondo entro il 2026: una macchina umanoide con un...

    Una Vulnerabilità critica è stata rilevata in Microsoft Web Deploy
    Di Redazione RHC - 17/08/2025

    Uno strumento Microsoft Web Deploy presenta una falla critica di sicurezza, potenzialmente sfruttata da aggressori autenticati per eseguire codice sui sistemi coinvolti. Si tratta del bug monitorato c...