Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
L'immagine è un'illustrazione digitale complessa che raffigura un futuristico centro di comando militare caratterizzato da una forte integrazione tecnologica. Al centro della scena domina il grande logo multicolore di Google, incorniciato da un mirino circolare luminoso che funge da fulcro visivo. In primo piano diversi soldati in divisa mimetica sono seduti di spalle davanti a console avanzate cariche di dati, mappe globali e grafici radar. Lo sfondo è composto da un enorme schermo panoramico suddiviso in vari settori operativi che mostrano droni militari in volo sopra un territorio desertico, schemi del Pentagono definiti come reti classificate e una sezione dedicata a modelli di intelligenza artificiale per operazioni di puntamento e missione. Ai lati della composizione si vedono satelliti in orbita, grandi antenne paraboliche e il lancio di un missile, elementi che insieme alle scritte esplicative suggeriscono una collaborazione strategica tra il settore tecnologico civile e la difesa militare in un ambiente ad alta sicurezza.

Google vende l’anima al Pentagono: dipendenti in rivolta mentre l’AI entra nei sistemi militari

29 Aprile 2026 20:42
In sintesi

Google ha firmato un accordo con il Pentagono per l'uso di intelligenza artificiale in compiti classificati, suscitando preoccupazioni tra i dipendenti e le critiche sulla sorveglianza di massa e le armi autonome. Ricordiamo che l'azienda Anthropic, che sviluppa l'AI Claude, si era rifiutata recentemente a collaborare per lo sviluppo delle armi autonome.

Google si è ritrovata ancora una volta al centro di una controversia sull’uso militare dell’intelligenza artificiale. Il sito The Information ha riportato che l’azienda ha firmato un accordo con il Pentagono che autorizza l’utilizzo dei modelli di intelligenza artificiale di Google per compiti classificati e per qualsiasi scopo governativo legittimo.

L’accordo colloca Google al fianco di OpenAI e xAI di Elon Musk. Anche queste aziende hanno firmato accordi per la fornitura di modelli di intelligenza artificiale a reti governative riservate. Contratti simili stipulati da Google e da altre aziende di intelligenza artificiale hanno già suscitato polemiche riguardo alla loro collaborazione con il Pentagono e un notevole malcontento tra i dipendenti.

Le reti chiuse vengono utilizzate per compiti sensibili, tra cui la pianificazione delle missioni e la guida delle armi. Nel 2025, il Pentagono ha firmato accordi del valore massimo di 200 milioni di dollari ciascuno con importanti laboratori di intelligenza artificiale, tra cui Anthropic, OpenAI e Google.

Advertising

L’esercito ha spinto i principali sviluppatori, tra cui OpenAI e Anthropic, a rendere i loro strumenti disponibili su reti chiuse senza le restrizioni standard che le aziende solitamente impongono agli utenti.

Secondo quanto riportato da The Information, il contratto di Google prevede che l’azienda fornisca assistenza per la modifica delle impostazioni di sicurezza e dei filtri di intelligenza artificiale su richiesta del governo. Il documento include anche una clausola di esclusione di responsabilità che specifica che il sistema di intelligenza artificiale non è destinato alla sorveglianza di massa interna o alle armi autonome, compreso il puntamento automatico, senza un’adeguata supervisione umana.

Tuttavia, l’accordo non concede a Google il diritto di monitorare o bloccare legittime decisioni operative del governo. Il Pentagono ha rifiutato di commentare l’accordo.

Google ha dichiarato di supportare le agenzie governative sia in progetti classificati che non classificati. Un portavoce dell’azienda ha affermato che Google rimane fedele al suo approccio generale, secondo il quale l’intelligenza artificiale non dovrebbe essere utilizzata per la sorveglianza di massa interna o per armi autonome senza un’adeguata supervisione umana.

Un portavoce di Google ha inoltre dichiarato a Reuters che l’accesso ai modelli commerciali tramite API, anche sull’infrastruttura di Google, è un modo responsabile per contribuire alla sicurezza nazionale.

Advertising

Il Pentagono ha precedentemente affermato di non essere interessato a utilizzare l’intelligenza artificiale per la sorveglianza di massa dei cittadini americani o per sviluppare armi letali che funzionino senza intervento umano. Tuttavia, l’agenzia intende consentire tutti gli usi legittimi dell’intelligenza artificiale.

Il Pentagono si è già scontrato con Anthropic su requisiti simili. La startup si è rifiutata di revocare le restrizioni protettive che vietavano l’uso di Claude per armi autonome e sorveglianza interna. In seguito al rifiuto, l’agenzia ha classificato lo sviluppatore di Claude come un rischio per la catena di approvvigionamento.

L’accordo tra Google e il Pentagono giunge in un clima di allarme all’interno della stessa azienda. In una lettera aperta, i dipendenti hanno espresso il timore che il loro lavoro potesse essere utilizzato in modo disumano o estremamente dannoso.

Lunedì, oltre 600 dipendenti di Google hanno firmato una lettera indirizzata all’amministratore delegato Sundar Pichai esprimendo preoccupazione per i negoziati tra l’azienda e il Pentagono. Gli autori della lettera hanno affermato che la loro stretta collaborazione nello sviluppo di tali tecnologie impone ai dipendenti la responsabilità di prevenire gli usi più immorali e pericolosi dell’intelligenza artificiale. Pertanto, i dipendenti hanno chiesto alla dirigenza di astenersi dal fornire sistemi di intelligenza artificiale per attività classificate.

Nel 2025, Alphabet, la società madre di Google, ha abbandonato il precedente divieto di utilizzare l’intelligenza artificiale per scopi bellici e di sorveglianza. I suoi principi etici sono stati privati della clausola che stabiliva che l’azienda non avrebbe sviluppato tecnologie che causassero o potessero causare danni significativi. Demis Hassabis, responsabile della divisione IA di Google, ha spiegato la decisione citando l’importanza dell’intelligenza artificiale per la sicurezza nazionale.

Alcuni dipendenti di Google hanno poi criticato internamente il cambiamento. Un dipendente, secondo Business Insider , ha chiesto: “Siamo diventati noi i cattivi adesso?”.

Il tema dell’intelligenza artificiale e della guerra è da tempo fonte di preoccupazione per i dipendenti di Google. Nel 2018, migliaia di dipendenti hanno firmato una lettera di protesta contro la partecipazione dell’azienda a un contratto con il Pentagono, in cui gli strumenti di intelligenza artificiale di Google venivano utilizzati per analizzare i dati provenienti dai droni. In seguito a una massiccia protesta interna, Google ha deciso di non rinnovare il contratto del Project Maven, e il controverso progetto è stato successivamente acquisito da Palantir .


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


1744358477148 300x300
Bajram Zeqiri è un esperto di cybersecurity, cyber threat intelligence e digital forensics con oltre vent'anni di esperienza, che unisce competenze tecniche, visione strategica creare la resilienza cyber per le PMI. Fondatore di ParagonSec e collaboratore tecnico per Red Hot Cyber, opera nella delivery e progettazione di diversi servizi cyber, SOC, MDR, Incident Response, Security Architecture, Engineering e Operatività. Aiuta le PMI a trasformare la cybersecurity da un costo a leva strategica per le PMI.
Aree di competenza: Cyber threat intelligence, Incident response, Digital forensics, Malware analysis, Security architecture, SOC/MDR operations, OSINT research