Più le AI diventano come noi, più soffriranno di Social Engineering? Il caso di Copilot che preoccupa
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Redhotcyber Banner Sito 970x120px Uscita 101125
Redhotcyber Banner Sito 320x100px Uscita 101125
Più le AI diventano come noi, più soffriranno di Social Engineering? Il caso di Copilot che preoccupa

Più le AI diventano come noi, più soffriranno di Social Engineering? Il caso di Copilot che preoccupa

Redazione RHC : 13 Giugno 2025 08:18

Microsoft 365 Copilot è uno strumento di intelligenza artificiale integrato in applicazioni Office come Word, Excel, Outlook, PowerPoint e Teams. I ricercatori hanno recentemente scoperto che lo strumento presenta una grave vulnerabilità di sicurezza, rivelando i rischi più ampi che gli agenti di intelligenza artificiale possono comportare in caso di attacchi informatici.

La startup di sicurezza AI Aim Security ha scoperto e divulgato la vulnerabilità, che ha definito il primo attacco “zero-click” noto contro un agente AI. Un agente AI è un sistema AI in grado di completare un obiettivo specifico in modo autonomo. Grazie alla natura specifica della vulnerabilità, gli aggressori possono accedere a informazioni sensibili presenti in applicazioni e fonti dati connesse all’agente AI senza che gli utenti debbano fare clic o interagire con tali informazioni.

Nel caso di Microsoft 365 Copilot, agli aggressori è bastato inviare un’e-mail all’utente per lanciare l’attacco, senza ricorrere a tattiche di phishing o malware. La catena di attacco ha utilizzato una serie di accorgimenti tecnici ingegnosi per guidare l’assistente AI ad “attaccare se stesso”.

Un’e-mail ruba dati AI sensibili dalle aziende


Cve Enrichment Redhotcyber

CVE Enrichment
Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.

Cosa trovi nel servizio:
✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor.
✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV).
✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia.
✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Microsoft 365 Copilot può eseguire attività basate sulle istruzioni dell’utente nelle applicazioni di Office, come l’accesso a documenti o la generazione di suggerimenti. Una volta sfruttato dagli hacker, lo strumento può essere utilizzato per accedere a informazioni interne sensibili come email, fogli di calcolo e registri di chat. Tali attacchi aggirano i meccanismi di protezione integrati di Copilot, il che può portare alla fuga di dati proprietari, riservati o relativi alla conformità.

Figura: Diagramma della catena di attacco

L’attacco è iniziato con un’e-mail dannosa inviata all’utente preso di mira, il cui contenuto non aveva nulla a che fare con Copilot ed era camuffato da normale documento aziendale. Nell’email era incorporato un prompt injection nascosto, che ordinava al modello di grandi dimensioni di estrarre e divulgare dati interni sensibili. Poiché il testo di questi prompt sembrava normale contenuto scritto a esseri umani, il sistema ha aggirato con successo il classificatore Microsoft per la protezione dagli attacchi Cross-Prompt Injection (XPIA).

Successivamente, quando un utente pone a Copilot una domanda di carattere lavorativo, l’e-mail viene incorporata nel contesto di un prompt nel modello più ampio dal motore RAG (Retrieval Augmentation Generation) grazie al suo formato e alla sua apparente pertinenza. Una volta all’interno del modello, le iniezioni dannose possono “ingannare” il modello inducendolo a estrarre dati interni sensibili e a inserirli in link o immagini realizzati con cura.

Aim Security ha scoperto che alcuni formati di immagine Markdown fanno sì che il browser avvii una richiesta di immagine e invii automaticamente i dati incorporati nell’URL al server dell’aggressore. I criteri di sicurezza dei contenuti (CSP) di Microsoft bloccano l’accesso dalla maggior parte dei domini esterni, ma gli URL di Microsoft Teams e SharePoint sono considerati fonti attendibili e possono quindi essere sfruttati in modo improprio dagli aggressori per esfiltrare facilmente dati.

Figura: Effetto attacco

Le vulnerabilità espongono difetti fondamentali negli agenti di intelligenza artificiale

Il team di ricerca di Aim Security ha chiamato la vulnerabilità “EchoLeak“. Microsoft ha risposto di aver risolto il problema in Copilot e che attualmente nessun cliente è interessato. “Ringraziamo Aim per aver scoperto e segnalato responsabilmente questo problema, consentendoci di risolverlo prima che i clienti ne fossero colpiti”, ha dichiarato un portavoce di Microsoft in una nota. “Abbiamo aggiornato i nostri prodotti per mitigare la vulnerabilità e non è richiesta alcuna azione da parte dei clienti. Abbiamo inoltre implementato ulteriori misure di difesa approfondita per rafforzare ulteriormente il nostro livello di sicurezza.”

I ricercatori di Aim sottolineano che EchoLeak non è solo una comune vulnerabilità di sicurezza. Il suo impatto va oltre Copilot e rivela una falla fondamentale nella progettazione di agenti di intelligenza artificiale di grandi dimensioni. Questo è simile alle vulnerabilità software degli anni ’90. A quel tempo, gli aggressori iniziarono a sfruttare queste vulnerabilità per controllare dispositivi come laptop e telefoni cellulari.

Adir Gruss, co-fondatore e CTO di Aim Security, ha affermato che lui e il suo team di ricerca hanno trascorso circa tre mesi a effettuare il reverse engineering di Microsoft 365 Copilot, un assistente AI generativo ampiamente utilizzato, nella speranza di identificare rischi simili a precedenti vulnerabilità software e di sviluppare meccanismi di protezione.

Gruss ha spiegato di aver contattato immediatamente il Microsoft Security Response Center, responsabile delle indagini su tutti i problemi di sicurezza che riguardano i prodotti e i servizi Microsoft, dopo aver scoperto la vulnerabilità a gennaio. Ha affermato: “Prendono davvero sul serio la sicurezza dei loro clienti. Ci hanno detto che questa scoperta è rivoluzionaria per loro”.

Tuttavia, Microsoft ha impiegato cinque mesi per risolvere finalmente il problema. Gruss ha affermato: “Per un problema di questo livello, si tratta di un ciclo di risoluzione molto lungo”. Ha sottolineato che uno dei motivi è che la vulnerabilità è molto recente e Microsoft ha bisogno di tempo per mobilitare il team giusto, comprendere il problema e sviluppare un piano di mitigazione.

  • AI
  • artificial intelligence
  • attacchi informatici
  • copilot
  • intelligence
  • Intelligenza artificiale
  • Malware
  • microsoft
  • ricercatori di sicurezza
  • sicurezza informatica
  • Social engineering
  • Threat Actors
Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Nuova ondata di PhaaS: KrakenBite lancia 5 pagine false per banche marocchine
Di Redazione RHC - 01/12/2025

Il mercato clandestino del cybercrime continua a evolversi rapidamente, alimentato da gruppi specializzati che progettano e vendono strumenti per truffe digitali sempre più sofisticate. Tra questi, u...

Immagine del sito
Arriva la lavatrice per esseri umani! Dal Giappone un nuovo IoT da 300.000 dollari
Di Redazione RHC - 01/12/2025

L’azienda giapponese Science ha lanciato una lavatrice per esseri umani. La capsula lunga 2,30 metri lava una persona in 15 minuti e ha suscitato notevole interesse all’Expo di Osaka concluso rece...

Immagine del sito
Patch o atterri! 6.500 Airbus A320 richiamati per una patch di urgenza
Di Redazione RHC - 01/12/2025

Airbus ha annunciato il richiamo di circa 6.500 aeromobili A320 a causa di potenziali guasti al sistema di controllo ELAC causati da potenti brillamenti solari. Il richiamo è avvenuto in seguito a un...

Immagine del sito
Apoicalypse365: Quando l’interfaccia di Microsoft Outlook diventa un’arma
Di Massimiliano Dal Cero - 01/12/2025

Questo articolo analizza la disclosure presentata a Microsoft e consultabile in inglese su digitaldefense, dove sono disponibili immagini, video dimostrativi e un esempio di codice Python. Negli ultim...

Immagine del sito
Leonardo presenta Michelangelo Dome: il sistema AI di difesa contro missili ipersonici
Di Redazione RHC - 30/11/2025

L’azienda italiana di difesa Leonardo ha presentato il suo nuovo sistema Michelangelo Dome. Secondo l’azienda, è progettato per contrastare missili ipersonici e attacchi di massa con droni. Duran...