La decisione è arrivata senza clamore, ma il segnale è forte.
Il Parlamento europeo ha scelto di disattivare le funzionalità di intelligenza artificiale integrate sui dispositivi aziendali di legislatori e personale. Una scelta che racconta molto del clima attuale, fatto di prudenza, sospetti e attenzione maniacale ai dati.
Non è una crociata contro la tecnologia, diciamo. È piuttosto il risultato di una valutazione interna che ha fatto emergere criticità difficili da ignorare. Quando in gioco ci sono documenti riservati, appunti politici e comunicazioni sensibili, anche una comodità può diventare un problema.
Queste funzioni, pensate per riassumere testi o aiutare nella scrittura, inviano i dati a server esterni. Ed è qui che scatta l’allarme: i contenuti lasciano il dispositivo, attraversano reti non sempre affidabili e finiscono su infrastrutture di terze parti.
Il team tecnico del Parlamento ha ammesso di non poter garantire integrità e riservatezza contro intercettazioni o accessi non autorizzati. In un contesto di spionaggio sponsorizzato dagli Stati, insomma, il rischio cresce.
Restano invece operative le app tradizionali: email, calendari, editor di documenti. Il lavoro quotidiano continua, anche se senza quelle scorciatoie che molti avevano iniziato ad apprezzare, magari per preparare in fretta un briefing.
Il Parlamento non ha indicato produttori o versioni dei sistemi operativi coinvolti. Una scelta di sicurezza operativa, spiegano, per non offrire dettagli utili a potenziali attaccanti.
Le raccomandazioni si estendono anche ai dispositivi personali: niente scansioni IA per contenuti di lavoro e controlli rigorosi sui permessi. Un po’ come già accaduto con il divieto di TikTok nel 2023 o con gli appelli del 2025 a ridurre la dipendenza da software extraeuropei.
Secondo gli esperti, si tratta di una contromisura preventiva contro minacce come l’iniezione rapida o l’inversione del modello, capaci di sottrarre informazioni sensibili. L’istituzione promette monitoraggio continuo, senza svelare i protocolli.
La notizia è stata riportata da Politico, che ha evidenziato come questa scelta possa influenzare altre istituzioni, spingendo verso soluzioni più isolate e meno comode, ma più sicure.
Per ora, al Parlamento europeo si torna agli strumenti tradizionali. Un passo indietro apparente, che ricorda come la sicurezza informatica, alla fine, conti più dell’entusiasmo per l’ultima funzione alla moda.
Per la community di Red Hot Cyber questo episodio mette in evidenza una realtà spesso sottovalutata. Molte delle funzionalità di intelligenza artificiale oggi integrate nei dispositivi aziendali operano su infrastrutture cloud localizzate in datacenter sotto giurisdizione statunitense. Questo significa che i dati elaborati — anche se appartenenti a istituzioni europee — ricadono nel perimetro normativo del Foreign Intelligence Surveillance Act (FISA), in particolare della Sezione 702.
La 702 consente alle agenzie di intelligence USA di acquisire, senza mandato individuale, comunicazioni e informazioni di soggetti non statunitensi che transitano o sono conservate su sistemi di provider americani, quando ritenute rilevanti per la sicurezza nazionale. In termini pratici, documenti, testi e metadati inviati a questi servizi di intelligenza artificiale possono essere legalmente accessibili per attività di intelligence, anche se prodotti all’interno di contesti istituzionali europei.
In questo scenario, l’adozione dell’IA in ambienti critici non è una questione di diffidenza tecnologica, ma di consapevolezza geopolitica e giuridica. Senza pieno controllo dei flussi informativi, senza trasparenza sulle architetture e senza garanzie sulla sovranità dei dati, anche l’innovazione più avanzata rischia di trasformarsi in un canale involontario di esposizione strategica.