Project Maven sta trasformando la guerra automatizzando l'intera catena di attacco dall’analisi dei dati all’esecuzione in pochi secondi. Il sistema integra fonti multiple e suggerisce azioni operative, riducendo drasticamente i tempi decisionali. Questo cambiamento aumenta l’efficacia militare ma introduce rischi significativi, tra cui errori di targeting e vittime civili, aggravati dalle “allucinazioni” dell’intelligenza artificiale. La velocità supera il controllo umano, aprendo interrogativi sulla responsabilità.
Le forze armate degli Stati Uniti D’America, si stanno progressivamente spostando dall’analisi dei dati al processo decisionale sul campo di battaglia. In tutto questo l’intelligenza artificiale sta iniziando a svolgere un ruolo chiave in questo processo. Uno di questi strumenti, Project Maven, si è evoluto in pochi anni da un sistema per la visualizzazione di filmati di droni, ad una piattaforma per la gestione completa delle operazioni di combattimento.
Questo programma è stato lanciato già dal 2017, quando le forze armate statunitensi si sono trovate ad affrontare una sfida che non avevano previsto. Il flusso dei dati video che provenivano dai droni, era cresciuto talmente tanto che gli analisti non riuscivano a elaborarli.
Dovevano essere quindi esaminati manualmente e gli oggetti potevano apparire sullo schermo anche per pochi secondi. Maven è stato creato per automatizzare l’acquisizione di questi bersagli e ridurre il carico di lavoro sugli operatori militari.
Nel corso degli ultimi periodi, tutto è cambiato in quanto Maven integra dati provenienti da diverse fonti quali immagini satellitari, segnali di sensori, informazioni di intelligence e anche i dati sulla disposizione delle truppe. in campo Sulla base di queste informazioni viene creato dal sistema un quadro completo di quello che sta accadendo sul campo aiutando gli operatori a determinare la linea d’azione.

In sostanza, questa piattaforma svolge due funzioni. Da un lato, analizza, traccia i movimenti, identifica i potenziali obiettivi e valuta le minacce. Dall’altro, suggerisce le opzioni di intervento, e tiene anche conto delle risorse militari che risultano disponibili e le condizioni operative.
Nelle dimostrazioni del sistema, gli operatori del Pentagono hanno mostrato come Maven trasformi un obiettivo individuato in una catena di attacco pronta, selezionando anche le armi a supporto dell’offensiva.
Il cambiamento è quindi radicale e “accelera” la gestione della guerra. In termini militari, ci si riferisce alla cosiddetta “catena di uccisione”, o meglio dire quella sequenza di passaggi che vanno dall’individuazione del bersaglio alla sua definitiva distruzione.
Tutto questo in precedenza, poteva richiedere ore ma con l’avvento di Maven, si è ridotto a minuti, ma possiamo dire anche a secondi, sulla base dei nodi di accelerazione hardware disponibili (le GPU).
Un ulteriore passo avanti riguarda l’interfaccia che è stata realizzata. Gli operatori militari possono formulare le loro richieste in linguaggio naturale e ottenere quindi le informazioni necessarie in modo molto rapido.
Questa parte al momenti viene gestita dal modello Claude di Anthropic, ma la collaborazione si è rivelata molto tesa in quanto Anthropic (come abbiamo scritto su queste pagine) ha limitato l’utilizzo del sistema AI per attacchi completamente automatizzati e alla sorveglianza dei cittadini.
La storia di Maven è legata quindi ai conflitti interni al settore tecnologico. Ad esempio, all’inizio del progetto Google era uno delle AI utilizzate da Maven, ma nel 2018 i dipendenti protestarono contro la partecipazione a quest progetto militare. Successivamente alcuni ingegneri si dimisero e la stessa azienda si rifiutò di rinnovare il contratto, sancendo all’interno delle proprie politiche il divieto di sviluppare sistemi militari di guerra autonoma.
La posizione successivamente si è poi ammorbidita e le restrizioni sono state riviste da Google, la quale è nuovamente considerata un potenziale fornitore di tecnologia AI. Anche OpenAI e xAI sono menzionate come possibili candidati.
Dal 2024, un’altra azienda di nome Palantir, è entrata nel progetto. Inizialmente si era focalizzata sulla collaborazione con le agenzie di intelligence, ma successivamente è diventata uno tra i principali fornitori di sistemi per la guerra autonoma. Le sue soluzioni costituiscono la base dell’attuale architettura di sistema.
È difficile valutare l’efficacia di Maven in quanto il Pentagono e gli appaltatori mantengono molti segreti e dettagli sui casi di impiego. Tuttavia, delle prove indirette indicano la portata. I centri di analisi hanno stimato che, dopo le prime settimane dell’operazione in Iran, l’intensità degli attacchi abbia raggiunto i 300-500 obiettivi al giorno. Asd esempio, nel solo primo giorno dell’operazione, sono stati segnalati oltre 1.000 obiettivi colpiti.
Questa velocità fa sì che le decisioni non vengano valutate in tutta la loro catena dagli essere umani, ma implementate quasi in tempo reale. È qui che Maven da il meglio di sé, riducendo il tempo tra la scoperta e l’azione, trasformando questo flusso di dati in istruzioni concrete.
Ma questo “acceleratore” porta con se degli incredibili rischi. In attacchi ad alta densità, si aumenta drasticamente la probabilità di errori sui bersagli, e tali errori si riversano sulla morte di poveri innocenti. I resoconti di recenti attacchi hanno menzionato infatti dei casi in cui sono stati colpiti obiettivi, tra cui abitazioni di civili, compresi bambini.
Maven dimostra che la logica della guerra sta cambiando e l’attenzione si sta gradualmente spostando dalla quantità di equipaggiamento alla velocità di elaborazione delle informazioni e la velocità di prendere decisioni.
In un sistema del genere, la parte che trasforma i dati in azioni più rapidamente ottiene un vantaggio, anche se l’allucinazione diventa lo spettro principale. Infatti, le “allucinazioni”, non hanno una percentuale fissa, ma le stime indicano un range compreso tra il 5% e 15% su task semplici, che può salire al 20–30% in contesti complessi, fino a percentuali più alte con dati incompleti o non verificabili.
Traslando questo in ambito militare, il problema cambia natura. Anche ipotizzando sistemi più avanzati, addestrati su “dataset classificati” e integrati con sensori di varia natura, il margine di errore non scompare. Si riduce, ma resta. E quando il processo decisionale viene accelerato passando da ore a secondi anche la minima percentuale di errore può tradursi in conseguenze reali sul campo.
Chi ne risponderà quindi?