Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Google identifica 6 principali attacchi che possono affliggere l’intelligenza artificiale. Occorre preparare i Red Team

Redazione RHC : 23 Luglio 2023 16:06

I ricercatori di Google hanno identificato 6 tipi di attacchi ai sistemi di intelligenza artificiale, tra cui la manipolazione dei modelli di linguaggio di grandi dimensioni (Large Language Model, LLM), utilizzati, ad esempio, in ChatGPT e Google Bard. 

Tali attacchi possono portare a risultati imprevisti o dannosi, dalla semplice apparizione di foto di una persona comune su un sito di celebrità, a gravi violazioni della sicurezza come il phishing e il furto di dati.

Tra i vettori di attacco rilevati:

  1. Prompt Attack : un utente malintenzionato può creare query efficienti che costringono i modelli LLM a eseguire le azioni desiderate. Ad esempio, l’inserimento di un paragrafo invisibile all’utente nel corpo di un’e-mail di phishing scritta dall’intelligenza artificiale potrebbe aggirare la sicurezza dell’e-mail.
  2. Training data extraction : l’attacco mira a ricreare gli esempi di addestramento utilizzati da LLM. Ad esempio, un utente malintenzionato potrebbe estrarre dati personali o password dai dati di addestramento.
  3. Backdooring the modello : un criminale informatico può tentare di modificare di nascosto il comportamento del modello in modo che produca risultati errati quando viene attivato un determinato “trigger”. Ad esempio, un utente malintenzionato può nascondere codice dannoso in un modello o nel relativo output.
  4. Adversarial examples : questi sono input che un utente malintenzionato fornisce a un modello per produrre “output deterministico ma completamente inaspettato”. Ad esempio, un modello può mostrare un’immagine che significa una cosa per l’occhio umano, ma il modello la riconosce come completamente diversa.
  5. Data poisoning : un malintenzionato può manipolare i dati di addestramento del modello per influenzare l’output del modello in base alle sue preferenze. L’attacco può anche rappresentare una minaccia per la supply chain se gli sviluppatori utilizzano l’intelligenza artificiale nello sviluppo del software.
  6. Exfiltration : un utente malintenzionato può copiare il file system di un modello per rubare la proprietà intellettuale al suo interno memorizzata. Il malintenzionato può quindi utilizzare queste informazioni per creare i propri modelli che forniscono funzionalità uniche in attacchi personalizzati.

Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber

«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi». Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca. Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare. Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.

Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]


Supporta RHC attraverso:
  • L'acquisto del fumetto sul Cybersecurity Awareness
  • Ascoltando i nostri Podcast
  • Seguendo RHC su WhatsApp
  • Seguendo RHC su Telegram
  • Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab


  • Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


    Google sottolinea l’importanza di utilizzare metodi tradizionali di sicurezza e red-teaming (Red Team) per garantire la protezione dei sistemi di intelligenza artificiale. 

    I ricercatori notano inoltre che la combinazione più efficace di questi metodi con competenze nel campo dell’IA crea sistemi di protezione affidabili. 

    Nel loro rapporto, i ricercatori hanno sottolineato che le attività di red team e le simulazioni di attacco possono svolgere un ruolo fondamentale nella preparazione di ogni organizzazione agli attacchi ai sistemi di intelligenza artificiale.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Lista degli articoli

    Articoli in evidenza

    Il database di PayPal, in vendita con 15,8 milioni di account: cosa c’è da sapere
    Di Redazione RHC - 19/08/2025

    Su un popolare forum dedicato alle fughe di dati è apparso un annuncio pubblicitario per la vendita di un database che presumibilmente contiene 15,8 milioni di account PayPal con indirizzi email ...

    I Criminal Hacker sfruttano Cisco Safe Links per attacchi di phishing
    Di Redazione RHC - 19/08/2025

    Una complessa operazione di attacco è stata individuata recentemente, nella quale gli aggressori digitali utilizzano la struttura di protezione Cisco per eseguire manovre di inganno online. I mal...

    Dark web e hotel italiani: ecco cosa ci ha rivelato MyDocs sui documenti rubati
    Di Luca Stivali - 19/08/2025

    A cura di Luca Stivali e Roland Kapidani. Nel giro di dieci giorni un nickname mai visto prima, mydocs, ha inondato un dark forum con una serie di thread tutti uguali: stesso template, stessa call-to-...

    Non trovi la tua Tesla? Nessun problema: c’è Free TeslaMate
    Di Redazione RHC - 18/08/2025

    Un ricercatore esperto in sicurezza informatica ha scoperto che centinaia di server TeslaMate in tutto il mondo trasmettono apertamente i dati dei veicoli Tesla senza alcuna protezione. Ciò signi...

    Il progetto Dojo di Tesla è morto. Una scommessa tecnologica finita in clamoroso fiasco
    Di Redazione RHC - 18/08/2025

    Il 23 luglio 2025, Tesla tenne la sua conference call sui risultati del secondo trimestre. Elon Musk , come di consueto, trasmise a Wall Street il suo contagioso ottimismo. Parlando di Dojo, il superc...