Negli ultimi anni abbiamo riempito l’orbita terrestre di oggetti. Migliaia di oggetti.
Eppure la sicurezza, è arrivata tardi. Ora l’intelligenza artificiale rischia di accelerare tutto, nel bene ma anche – e forse soprattutto – nel male. I ricercatori di sicurezza stanno già usando sistemi avanzati per scovare vulnerabilità zero-day, cioè falle ancora sconosciute. Un vantaggio enorme, almeno sulla carta. Il problema? Anche gli attaccanti fanno lo stesso.
E qui la faccenda si complica. Gli LLM, come quelli dietro strumenti ormai diffusissimi, riescono a analizzare codice, individuare debolezze e proporre exploit in tempi ridotti. Non parliamo di mesi, ma di giorni… a volte ore. Ti sei mai chiesto quanto tempo una volta serviva prima per capire il funzionamento di un satellite?
Oggi molto meno. Secondo gli esperti, attività che richiedevano lo studio di migliaia di pagine tecniche possono essere automatizzate. Basta chiedere all’AI di generare parser o interpretare telemetrie. Fine. Non è fantascienza, anche se suona così. Gli specialisti del centro CR14 in Estonia parlano apertamente di una possibile finestra di due anni per un attacco guidato da AI capace di creare danni seri nello spazio.
Il rischio più grande? Il dirottamento dei satelliti.
Non solo interferenze o spoofing delle comunicazioni, ma un controllo completo. Immagina un satellite trasformato in un’arma orbitale. Potrebbe essere diretto contro un altro oggetto, provocando una collisione. E da lì potrebbe innescarsi una reazione a catena.
Negli ultimi tre anni sono stati lanciati circa 8.000 satelliti. Numeri enormi. In un ambiente già affollato, anche un singolo impatto potrebbe generare migliaia di detriti, rendendo alcune orbite inutilizzabili per anni. Il problema è anche storico. Molti satelliti ancora operativi non sono mai stati progettati pensando alla sicurezza informatica. Zero protezioni. Facili bersagli, per hacker esperti e non.
Nel frattempo, gli attacchi informatici diventano più sofisticati. Non solo nello spazio. In Europa, i tentativi di phishing sono cresciuti del 500% negli ultimi anni. E con l’AI, diventano più credibili, più mirati. E non è teoria. Già nel 2024, attori statali come il gruppo russo Fancy Bear hanno utilizzato modelli linguistici per raccogliere informazioni su comunicazioni satellitari e sistemi radar, preparandosi a possibili operazioni.
Il quadro, a questo punto, è abbastanza chiaro… e anche un po’ inquietante.
Il centro di ricerca CR14, sta simulando questi scenari attraverso ambienti virtuali e digital twin, mettendo alla prova sia attaccanti che difensori per capire dove si romperà il sistema.