Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Anthropic Bloccata dal Governo USA. La posizione di Dario Amodei merita rispetto!

Anthropic Bloccata dal Governo USA. La posizione di Dario Amodei merita rispetto!

28 Febbraio 2026 09:07

La notizia è piombata fuori all’improvviso anche se era nell’aria. Ma ci ha colto un po’ di sorpresa. Anche perché siamo abituati a vedere divieti di questo tipo nella direzione opposta. Qui invece parliamo di qualcosa di diverso: una società tecnologica americana di altissimo livello che viene bloccata proprio negli Stati Uniti. Non capita spesso. Anzi, quasi mai.

E se vogliamo dirlo in termini AI qual è stata la causa? Allineamento.

Il governo degli Stati Uniti ha ordinato alle agenzie federali di interrompere l’uso del modello Claude sviluppato da Anthropic. Una decisione che ha scosso parecchi ambienti, soprattutto perché riguarda una società americana e non un rivale straniero.

Advertising

La tensione si è vista subito ma anche il caso scuola non è da poco.

Il presidente Donald Trump ha scritto che le agenzie devono cessare immediatamente l’utilizzo della tecnologia dell’azienda, concedendo però sei mesi di tempo per uscire gradualmente dai sistemi dove era già integrata.

Questo lo ha fatto nel suo stile decisamente colorito, potremmo dire da vero “hardcore patriot”, aprendo il post sul suo social network Truth Social con queste parole :“GLI STATI UNITI D’AMERICA NON PERMETTERANNO MAI A UN’AZIENDA RADICALE DI SINISTRA E WOKE DI DETTARE COME IL NOSTRO GRANDE ESERCITO DEVE COMBATTERE E VINCERE LE GUERRE! Questa decisione spetta al VOSTRO COMANDANTE IN CAPO e agli straordinari leader che ho nominato per guidare il nostro esercito. I pazzi di sinistra di Anthropic hanno commesso un ERRORE DISASTROSO cercando di OBBLIGARE il Dipartimento della Guerra a obbedire ai loro Termini di servizio invece che alla nostra Costituzione. Il loro egoismo sta mettendo a rischio la VITA DEGLI AMERICANI, le nostre truppe e la nostra sicurezza nazionale.”

Il Nodo Delle Richieste Militari

Tutto ruota attorno a due richieste molto precise avanzate dal Pentagono. Accesso pieno al modello per qualsiasi uso lecito, inclusi scenari che l’azienda non voleva accettare. Parliamo di sorveglianza interna di massa e armi completamente autonome.

Il CEO Dario Amodei ha rifiutato. In sostanza sostiene che gli attuali sistemi di frontiera non sono abbastanza affidabili per guidare armi totalmente autonome e che la sorveglianza su larga scala degli americani rischierebbe di violare diritti civili.

Lo dice apertamente anche la posizione pubblica dell’azienda: l’IA può aiutare a difendere le democrazie, ma in alcuni casi potrebbe fare l’opposto. L’idea di assemblare dati sparsi sugli individui fino a ricostruire la vita completa di qualcuno… ecco, per loro è un limite che non vogliono oltrepassare.

Nel lungo documento di Anthropic si legge: “Tuttavia, in un ristretto numero di casi, riteniamo che l’IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile. Due di questi casi d’uso non sono mai stati inclusi nei nostri contratti con il Dipartimento della Guerra e riteniamo che non dovrebbero esserlo ora”

Un Rapporto Nato Nei Sistemi Classificati

Curioso, perché la collaborazione era iniziata bene. Anthropic era stata la prima azienda di AI avanzata a portare i propri modelli nelle reti classificate del governo americano. Dal 2024 esisteva anche un contratto da 200 milioni di dollari con il Dipartimento della Guerra.

Dentro quelle strutture, il modello Claude veniva usato per analisi di intelligence, simulazioni, pianificazione operativa e perfino operazioni informatiche. Cose molto concrete. Non esperimenti.

Poi le trattative private si sono rotte.

A un certo punto è arrivato un ultimatum con una scadenza precisa. Accettare oppure finire in blacklist.

Le Conseguenze Che Preoccupano Il Settore

La designazione come rischio per la catena di approvvigionamento è stata annunciata dal segretario alla Difesa Pete Hegseth. Una classificazione che, storicamente, era stata usata contro aziende straniere considerate ostili. Questo ha fatto discutere parecchi osservatori legali accusando il governo si essere incoerente nelle comunicazioni riguardo l’intelligenza artificiale.

C’è anche un effetto collaterale potenziale. L’infrastruttura cloud su cui si basa Anthropic dipende da grandi provider come Amazon, Microsoft e Google, tutte realtà con contratti militari. Alcuni esperti temono interpretazioni molto rigide delle nuove regole.

Nel frattempo l’azienda ha dichiarato che continuerà a sostenere gli utilizzi legittimi legati alla sicurezza nazionale e che, se necessario, garantirà una transizione senza interruzioni operative per le truppe e le missioni in corso.

Concludendo

Arriviamo quindi al punto che, forse, pesa più di tutti gli altri. E qui vale la pena dirlo chiaramente.

La posizione di Dario Amodei merita rispetto.

Non è una mossa comoda, né una scelta che un’azienda prende a cuor leggero, soprattutto quando si parla di contratti militari e di pressioni governative molto forti.

In sostanza, Amodei sta sostenendo una linea etica pur sapendo che potrebbe avere conseguenze serie per la sua azienda. Non è retorica. Significa accettare possibili ritorsioni, perdere contratti, esporsi pubblicamente in modo negativo. Quanti lo avrebbero fatto nella sua posizione?

E questo, se guardiamo alla storia recente dell’intelligenza artificiale, è qualcosa che non si era mai visto davvero. Le grandi aziende AI, finora, si sono quasi sempre allineate alla politica americana quando si trattava di difesa o sicurezza nazionale.

Qui invece succede qualcosa di diverso.

Questo passaggio ha un peso particolare. Lo diciamo da anni, in realtà. Già tre anni fa figure come Elon Musk e Steve Wozniak parlavano della necessità di fermarsi un attimo, respirare, capire davvero come usare una tecnologia così potente prima di continuare a spingerla sempre più avanti.

E oggi quel dibattito è esploso. Non è più una discussione tra tecnici o ricercatori chiusi nei laboratori.

Nel 2025 la questione dell’intelligenza artificiale è diventata pubblica, rumorosa, perfino scomoda. Non si parla solo di modelli più veloci o sistemi più efficienti. Si parla di limiti, controllo, responsabilità. Alcuni chiedono di rallentare, altri di imporre regole più rigide, qualcuno perfino di fermarsi per un periodo.

Il motivo? Una paura molto concreta: costruire qualcosa che poi non siamo più in grado di governare.

Ed è qui che la scelta di Anthropic assume un significato più ampio. Non è soltanto uno scontro tra azienda e governo. È un segnale dentro una corsa globale verso AGI e sistemi sempre più autonomi, dove etica, potere e interessi industriali (e geopolitici) iniziano a mescolarsi in modo pericoloso.

La vera domanda, alla fine, è questa.

Chi avrà il coraggio di dire NO quando la tecnologia corre troppo veloce e entra così tanto negli interessi personali?


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.