C’è un momento, nella storia della tecnologia, in cui diventa chiaro che non si tratta più solo di innovazione ma di potere. L’intelligenza artificiale sta attraversando proprio questo momento.
Non è più uno strumento per scrivere codice, generare immagini o automatizzare processi: è una tecnologia capace di ridefinire l’equilibrio tra governi, eserciti e cittadini. Forse non tutti lo hanno compreso, ma è proprio così.
Negli ultimi giorni lo scontro tra l’azienda di AI Anthropic e il Dipartimento della Difesa degli Stati Uniti ha portato alla luce un tema che finora era rimasto dietro le quinte: chi controlla davvero l’uso militare dell’intelligenza artificiale?
Secondo quanto riportato dalla BBC, il CEO Dario Amodei ha dichiarato che la sua azienda preferirebbe rinunciare a lavorare con il Pentagono piuttosto che accettare condizioni che potrebbero permettere l’utilizzo dei suoi sistemi per sorveglianza di massa interna o per armi completamente autonome. Una posizione che non è solo tecnica o commerciale: è profondamente politica ed etica e soprattutto… profondamente “umana”.
Tutti parlano di Etica dell’Intelligenza Artificiale, ma quanti veramente sono disposti a prendere drastiche decisioni per salvaguardarla?
Per capire perché questo scontro sia così importante bisogna guardare oltre la singola trattativa. L’AI sta diventando una tecnologia strategica, paragonabile – per impatto geopolitico – al nucleare, allo spazio o alla crittografia.
La differenza è che l’AI è molto più accessibile e veloce da sviluppare.
Un sistema capace di analizzare enormi quantità di dati può ricostruire la vita di una persona combinando informazioni apparentemente innocue: movimenti, comunicazioni, acquisti, relazioni. Su scala nazionale questo significa potenzialmente un sistema di sorveglianza totale. Ed è esattamente uno dei timori sollevati da Anthropic.
Noi di Red Hot Cyber sappiamo bene cosa successe dopo l’11 settembre, quando venne implementato il Foreign Intelligence Surveillance Act (FISA) negli Stati Uniti D’America e la tanto contestata sezione 702, che presidente dopo presidente approva senza mai un minimo di ripensamento. I nostri lettori conoscono bene cosa successe nell’implementazione della sezione 702 con il DataGate quando Edward Snowden portò all’attenzione sistemi di sorveglianza come PRISM, Xkeyscore, Tempora e tanti altri ancora.
Ora la situazione cambia di livello. Con l’uso delle AI non si parla più di “sorveglianza di massa”, occorre parlare di “sorveglianza totale”.
Allo stesso modo, il tema delle armi autonome non è più fantascienza. La domanda non è se verranno sviluppate, ma chi stabilirà i limiti prima che diventino la norma. E qui entra in gioco la regolamentazione.
Oggi non esiste una governance globale solida sull’uso militare dell’intelligenza artificiale. Se i governi iniziano a integrare AI sempre più avanzate nei sistemi di difesa senza regole condivise, si possono aprire scenari estremamente pericolosi:
E la storia ci insegna una cosa: quando parte una corsa agli armamenti tecnologici, fermarla diventa quasi impossibile. Inoltre l’AI ha una caratteristica in più: può evolvere e scalare molto più velocemente delle strutture politiche che dovrebbero regolamentarla.
Molte aziende tecnologiche parlano di etica dell’AI. Ma poche, veramente poche sono disposte a rischiare contratti governativi per difendere quei principi. La posizione di Amodei manda un segnale importante al settore: le aziende che sviluppano l’AI non possono fingere di essere solo fornitori neutrali di tecnologia.
Chi crea questi sistemi ha una responsabilità enorme.
Quando Amodei afferma che gli attuali sistemi di AI non sono abbastanza affidabili per gestire armi completamente autonome, non sta facendo una dichiarazione teorica: sta evidenziando un problema tecnico (e giuridico in modo traslato) reale ed enorme. Gli attuali modelli, per quanto avanzati, possono comunque commettere errori, essere manipolati o prendere decisioni basate su dati incompleti. In ambito militare, questo significa una sola cosa: conseguenze irreversibili.
Il punto centrale di tutta questa faccenda, non è vietare l’AI militare – cosa probabilmente irrealistica – ma stabilire dei limiti chiari prima che sia troppo tardi. Tre principi dovrebbero diventare standard globali:
Senza queste regole, il rischio è che l’intelligenza artificiale diventi uno strumento che amplifica il potere statale in modo difficilmente controllabile.
Quando il genio è uscito dalla lampada, di solito (ma quasi sempre) risulta impossibile rimettercelo dentro. L’AI cambierà il mondo comunque e questo è un fatto. La vera domanda è se lo farà con regole democratiche oppure guidata esclusivamente dalla logica della sicurezza e della competizione geopolitica.
La posizione presa da persone come Dario Amodei potrebbe sembrare scomoda oggi, ma è esattamente il tipo di resistenza che serve quando una tecnologia ha il potenziale di sfuggire di mano.
Perché una cosa è certa: quando l’intelligenza artificiale entra nei sistemi militari, non stiamo più parlando di software.
Stiamo parlando del futuro dell’equilibrio globale.