Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
anthropic

Claude, l’AI che il Pentagono non doveva usare. Tra regole violate e operazioni segrete

2 Marzo 2026 11:10

C’è qualcosa di più profondo della disputa tra il Pentagono e Anthropic. Non si tratta solo di regole interne o limiti tecnici: è una battaglia sul sogno dell’AI e sul suo ruolo nel mondo reale. Pensateci, se fosse tecnologia tradizionale sarebbe tutto più chiaro, ma qui parliamo di sistemi che promettono potenzialmente l’AGI e la superintelligenza.

Inoltre, il dibattito tocca non solo il settore militare ma anche l’economia e il lavoro. Il mercato osserva con ansia ogni passo, domandandosi come l’AI influenzerà i posti di lavoro e la distribuzione delle opportunità.

Advertising

Ad esempio, in tutto questo la Silicon Valley non è immune: molti temono che il sogno americano sia sempre più filtrato da chi possiede la tecnologia e chi ne resta escluso.

La questione dei limiti

Se Anthropic vendesse proiettili, le cose sarebbero semplici: il Segretario alla Difesa Pete Hegseth non accetterebbe restrizioni.

Ma con l’AI la questione cambia. Dario Amodei, CEO di Anthropic, ribadisce che i sistemi avanzati non sono affidabili per armi autonome. “Non forniremo prodotti che mettano a rischio militari e civili”, ha detto di recente.

Le richieste del Pentagono di rimuovere le regole interne di Anthropic – pensate per evitare sorveglianza di massa e armi autonome – accendono il dibattito su responsabilità e sicurezza. È una linea sottile tra controllo e libertà di sviluppo.

Ma sembra che anche dopo il ban l’esercito americano abbia utilizzato Claude

Poche ore dopo che il Presidente Trump aveva annunciato la fine dell’uso federale di strumenti di intelligenza artificiale sviluppati da Anthropic, gli Stati Uniti hanno lanciato un attacco aereo significativo in Iran, utilizzando proprio quegli stessi strumenti. Come riportato dal Wall Street Journal, la decisione politica e l’operazione militare sembrano procedere in parallelo, creando un paradosso che mette in luce le difficoltà nel regolamentare l’uso dell’AI in contesti operativi critici.

Secondo quanto confermato da fonti vicine all’operazione e riportato dal WSJ, comandi militari in varie parti del mondo, incluso il Comando Centrale degli Stati Uniti (CENTCOM) in Medio Oriente, hanno impiegato il sistema Claude di Anthropic nelle fasi iniziali dell’attacco. Non sono stati forniti dettagli specifici sui sistemi utilizzati o sul loro ruolo preciso, ma il coinvolgimento dell’AI in scenari di combattimento reale rappresenta una novità significativa, almeno per quanto riguarda le operazioni USA.

La notizia evidenzia un punto chiave: l’AI sta assumendo un ruolo sempre più rilevante nei processi decisionali militari. Anche se non ci sono conferme sul grado di autonomia con cui Claude ha operato, il fatto che strumenti di intelligenza artificiale siano stati integrati così rapidamente in un attacco reale mostra quanto la linea tra supporto e azione diretta stia diventando sottile, come sottolineato dal WSJ.

Il pensiero di Diego Fasano

Diego Fasano, CEO di Ermetix, ha commentato su LinkedIn l’uso ipotizzato di Claude di Anthropic nei raid USA in Medio Oriente. Secondo Fasano, l’AI non agirebbe come “grilletto”, ma come supporto decisionale: riassunti di intelligence, estrazione di entità e simulazione di scenari di battaglia.

La frase “target identification” può spaventare, ma non implica automaticamente che l’AI scelga bersagli finali senza controllo umano. Piuttosto, Claude potrebbe aiutare gli staff a gestire enormi flussi di dati, identificando pattern, contraddizioni e priorità per il team operativo.

“Questo può voler dire tante cose (dalla generazione di liste/aree d’interesse alla prioritizzazione) e non implica automaticamente che l’AI abbia selezionato target finali senza controllo umano. Il pubblico, però, tende a leggerla come “l’AI ha scelto chi colpire”. Questo è un salto logico che, senza dettagli, non credo, con le informazioni attuali, si possa ancora fare ancorché sia uno scenario, secondo me, già possibile. Si può ipotizzare invece, che un comando (es. staff di CENTCOM) , il quale vive sommerso da flussi, report testuali, SIGINT trascritta, HUMINT, OSINT, note analitiche, “spot report” ecc, possa aver utilizzato un LLM su rete classificata, per riassumere centinaia di update in una “intel picture” coerente (cosa è cambiato nelle ultime X ore, cosa resta incerto, cosa contraddice cosa) oppure estrarre entità e relazioni (unità, basi, sistemi d’arma, persone/ruoli, luoghi, timeline) e rimetterle in forma interrogabile.”

Questo approccio rientrerebbe nell’uso mission-critical dichiarato da Anthropic: un copilota dello staff, non un pilota dell’attacco. Inoltre, l’AI può simulare vari scenari di azione, fungendo anche da “red team” per individuare punti ciechi nei piani umani.

Visioni contrastanti

La battaglia tra protezione e controllo si riflette anche nei governi e nelle aziende.

Anthropic cerca responsabilità, il Pentagono massimizza il controllo.

Quale direzione prenderà l’AI militare americana?

Ogni decisione può aprire scenari nuovi e complessi. E questo ci ricorda che non possiamo più considerare l’AI solo uno strumento: è parte attiva dei processi decisionali. Per chi opera in sicurezza, sorveglianza e policy tecnologica, diventa essenziale monitorare, capire e intervenire, prima che le scelte compiute dietro le quinte diventino vincolanti per tutti.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.