Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Anthropic si rifiuta di piegarsi al Pentagono sull’uso militare dell’AI. E fa bene!

Anthropic si rifiuta di piegarsi al Pentagono sull’uso militare dell’AI. E fa bene!

27 Febbraio 2026 10:26

C’è un momento, nella storia della tecnologia, in cui diventa chiaro che non si tratta più solo di innovazione ma di potere. L’intelligenza artificiale sta attraversando proprio questo momento.

Non è più uno strumento per scrivere codice, generare immagini o automatizzare processi: è una tecnologia capace di ridefinire l’equilibrio tra governi, eserciti e cittadini. Forse non tutti lo hanno compreso, ma è proprio così.

Advertising

Negli ultimi giorni lo scontro tra l’azienda di AI Anthropic e il Dipartimento della Difesa degli Stati Uniti ha portato alla luce un tema che finora era rimasto dietro le quinte: chi controlla davvero l’uso militare dell’intelligenza artificiale?

Secondo quanto riportato dalla BBC, il CEO Dario Amodei ha dichiarato che la sua azienda preferirebbe rinunciare a lavorare con il Pentagono piuttosto che accettare condizioni che potrebbero permettere l’utilizzo dei suoi sistemi per sorveglianza di massa interna o per armi completamente autonome. Una posizione che non è solo tecnica o commerciale: è profondamente politica ed etica e soprattutto… profondamente “umana”.

Tutti parlano di Etica dell’Intelligenza Artificiale, ma quanti veramente sono disposti a prendere drastiche decisioni per salvaguardarla?

Il vero punto: l’AI sta cambiando le regole del potere

Per capire perché questo scontro sia così importante bisogna guardare oltre la singola trattativa. L’AI sta diventando una tecnologia strategica, paragonabile – per impatto geopolitico – al nucleare, allo spazio o alla crittografia.

La differenza è che l’AI è molto più accessibile e veloce da sviluppare.

Un sistema capace di analizzare enormi quantità di dati può ricostruire la vita di una persona combinando informazioni apparentemente innocue: movimenti, comunicazioni, acquisti, relazioni. Su scala nazionale questo significa potenzialmente un sistema di sorveglianza totale. Ed è esattamente uno dei timori sollevati da Anthropic.

Noi di Red Hot Cyber sappiamo bene cosa successe dopo l’11 settembre, quando venne implementato il Foreign Intelligence Surveillance Act (FISA) negli Stati Uniti D’America e la tanto contestata sezione 702, che presidente dopo presidente approva senza mai un minimo di ripensamento. I nostri lettori conoscono bene cosa successe nell’implementazione della sezione 702 con il DataGate quando Edward Snowden portò all’attenzione sistemi di sorveglianza come PRISM, Xkeyscore, Tempora e tanti altri ancora.

Ora la situazione cambia di livello. Con l’uso delle AI non si parla più di “sorveglianza di massa”, occorre parlare di “sorveglianza totale”.

Allo stesso modo, il tema delle armi autonome non è più fantascienza. La domanda non è se verranno sviluppate, ma chi stabilirà i limiti prima che diventino la norma. E qui entra in gioco la regolamentazione.

Il rischio reale: un’escalation fuori controllo

Oggi non esiste una governance globale solida sull’uso militare dell’intelligenza artificiale. Se i governi iniziano a integrare AI sempre più avanzate nei sistemi di difesa senza regole condivise, si possono aprire scenari estremamente pericolosi:

  • decisioni militari accelerate o automatizzate oltre il controllo umano
  • sistemi di targeting basati su modelli probabilistici non pienamente affidabili
  • sorveglianza domestica su larga scala giustificata dalla sicurezza nazionale
  • una nuova corsa agli armamenti basata sugli algoritmi

E la storia ci insegna una cosa: quando parte una corsa agli armamenti tecnologici, fermarla diventa quasi impossibile. Inoltre l’AI ha una caratteristica in più: può evolvere e scalare molto più velocemente delle strutture politiche che dovrebbero regolamentarla.

Perché la posizione di Amodei conta davvero

Molte aziende tecnologiche parlano di etica dell’AI. Ma poche, veramente poche sono disposte a rischiare contratti governativi per difendere quei principi. La posizione di Amodei manda un segnale importante al settore: le aziende che sviluppano l’AI non possono fingere di essere solo fornitori neutrali di tecnologia.

Chi crea questi sistemi ha una responsabilità enorme.

Quando Amodei afferma che gli attuali sistemi di AI non sono abbastanza affidabili per gestire armi completamente autonome, non sta facendo una dichiarazione teorica: sta evidenziando un problema tecnico (e giuridico in modo traslato) reale ed enorme. Gli attuali modelli, per quanto avanzati, possono comunque commettere errori, essere manipolati o prendere decisioni basate su dati incompleti. In ambito militare, questo significa una sola cosa: conseguenze irreversibili.

Il vero nodo del futuro: controllo umano

Il punto centrale di tutta questa faccenda, non è vietare l’AI militare – cosa probabilmente irrealistica – ma stabilire dei limiti chiari prima che sia troppo tardi. Tre principi dovrebbero diventare standard globali:

  1. Human-in-the-loop obbligatorio nelle decisioni letali.
  2. Divieto di sorveglianza di massa automatizzata interna basata su AI senza controlli democratici.
  3. Audit indipendenti sugli algoritmi militari.

Senza queste regole, il rischio è che l’intelligenza artificiale diventi uno strumento che amplifica il potere statale in modo difficilmente controllabile.

L’editoriale in una frase

Quando il genio è uscito dalla lampada, di solito (ma quasi sempre) risulta impossibile rimettercelo dentro. L’AI cambierà il mondo comunque e questo è un fatto. La vera domanda è se lo farà con regole democratiche oppure guidata esclusivamente dalla logica della sicurezza e della competizione geopolitica.

La posizione presa da persone come Dario Amodei potrebbe sembrare scomoda oggi, ma è esattamente il tipo di resistenza che serve quando una tecnologia ha il potenziale di sfuggire di mano.

Perché una cosa è certa: quando l’intelligenza artificiale entra nei sistemi militari, non stiamo più parlando di software.

Stiamo parlando del futuro dell’equilibrio globale.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer