Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Una fotografia scattata a uno schermo piatto che visualizza un'interfaccia di un software di simulazione militare o di monitoraggio tattico. Lo sfondo è una mappa satellitare di un'area rurale composta da fitte foreste verdi, campi agricoli irregolari e alcuni specchi d'acqua scuri. Sulla mappa è sovrapposto un complesso sistema di grafiche digitali: Vettori e Coni di Visione: Sulla sinistra, tre icone di velivoli proiettano ampi coni di luce blu semitrasparente verso il centro, che rappresentano probabilmente il raggio d'azione di radar o sensori. Icone Tattiche: Al centro della mappa è presente un assembramento di icone stilizzate, tra cui piccoli aerei bianchi e diverse unità corazzate rosse (simili a icone di carri armati). Molte di queste icone sono contrassegnate da lettere singole (come "A", "J", "R", "Y"). Linee di Connessione: Sottili linee verdi collegano diverse unità tra loro, creando una rete intricata che suggerisce flussi di dati, puntamento o rotte di volo. Interfaccia Utente: Nella parte inferiore dello schermo è visibile una barra delle applicazioni blu scuro. Questa mostra i controlli di riproduzione (play, pausa, stop) e un percorso file di Windows: C:\Users\lattice-bae1\Desktop\VR\ASGARD Short.txt. L'illuminazione generale è soffusa, tipica di una sala operativa o di un ufficio, con un riflesso leggero sulla superficie lucida del monitor. L'atmosfera suggerisce l'analisi di uno scenario di difesa o una simulazione strategica avanzata.

Maven e AI nella guerra moderna: Chi pagherà per l’uccisione di civili innocenti?

8 Aprile 2026 10:24
In sintesi

Project Maven sta trasformando la guerra automatizzando l'intera catena di attacco dall’analisi dei dati all’esecuzione in pochi secondi. Il sistema integra fonti multiple e suggerisce azioni operative, riducendo drasticamente i tempi decisionali. Questo cambiamento aumenta l’efficacia militare ma introduce rischi significativi, tra cui errori di targeting e vittime civili, aggravati dalle “allucinazioni” dell’intelligenza artificiale. La velocità supera il controllo umano, aprendo interrogativi sulla responsabilità.

Le forze armate degli Stati Uniti D’America, si stanno progressivamente spostando dall’analisi dei dati al processo decisionale sul campo di battaglia. In tutto questo l’intelligenza artificiale sta iniziando a svolgere un ruolo chiave in questo processo. Uno di questi strumenti, Project Maven, si è evoluto in pochi anni da un sistema per la visualizzazione di filmati di droni, ad una piattaforma per la gestione completa delle operazioni di combattimento.

Questo programma è stato lanciato già dal 2017, quando le forze armate statunitensi si sono trovate ad affrontare una sfida che non avevano previsto. Il flusso dei dati video che provenivano dai droni, era cresciuto talmente tanto che gli analisti non riuscivano a elaborarli.

Dovevano essere quindi esaminati manualmente e gli oggetti potevano apparire sullo schermo anche per pochi secondi. Maven è stato creato per automatizzare l’acquisizione di questi bersagli e ridurre il carico di lavoro sugli operatori militari.

Advertising

Nel corso degli ultimi periodi, tutto è cambiato in quanto Maven integra dati provenienti da diverse fonti quali immagini satellitari, segnali di sensori, informazioni di intelligence e anche i dati sulla disposizione delle truppe. in campo Sulla base di queste informazioni viene creato dal sistema un quadro completo di quello che sta accadendo sul campo aiutando gli operatori a determinare la linea d’azione.

In sostanza, questa piattaforma svolge due funzioni. Da un lato, analizza, traccia i movimenti, identifica i potenziali obiettivi e valuta le minacce. Dall’altro, suggerisce le opzioni di intervento, e tiene anche conto delle risorse militari che risultano disponibili e le condizioni operative.

Nelle dimostrazioni del sistema, gli operatori del Pentagono hanno mostrato come Maven trasformi un obiettivo individuato in una catena di attacco pronta, selezionando anche le armi a supporto dell’offensiva.

Il cambiamento è quindi radicale e “accelera” la gestione della guerra. In termini militari, ci si riferisce alla cosiddetta “catena di uccisione”, o meglio dire quella sequenza di passaggi che vanno dall’individuazione del bersaglio alla sua definitiva distruzione.

Tutto questo in precedenza, poteva richiedere ore ma con l’avvento di Maven, si è ridotto a minuti, ma possiamo dire anche a secondi, sulla base dei nodi di accelerazione hardware disponibili (le GPU).

Un ulteriore passo avanti riguarda l’interfaccia che è stata realizzata. Gli operatori militari possono formulare le loro richieste in linguaggio naturale e ottenere quindi le informazioni necessarie in modo molto rapido.

Questa parte al momenti viene gestita dal modello Claude di Anthropic, ma la collaborazione si è rivelata molto tesa in quanto Anthropic (come abbiamo scritto su queste pagine) ha limitato l’utilizzo del sistema AI per attacchi completamente automatizzati e alla sorveglianza dei cittadini.

La storia di Maven è legata quindi ai conflitti interni al settore tecnologico. Ad esempio, all’inizio del progetto Google era uno delle AI utilizzate da Maven, ma nel 2018 i dipendenti protestarono contro la partecipazione a quest progetto militare. Successivamente alcuni ingegneri si dimisero e la stessa azienda si rifiutò di rinnovare il contratto, sancendo all’interno delle proprie politiche il divieto di sviluppare sistemi militari di guerra autonoma.

La posizione successivamente si è poi ammorbidita e le restrizioni sono state riviste da Google, la quale è nuovamente considerata un potenziale fornitore di tecnologia AI. Anche OpenAI e xAI sono menzionate come possibili candidati.

Dal 2024, un’altra azienda di nome Palantir, è entrata nel progetto. Inizialmente si era focalizzata sulla collaborazione con le agenzie di intelligence, ma successivamente è diventata uno tra i principali fornitori di sistemi per la guerra autonoma. Le sue soluzioni costituiscono la base dell’attuale architettura di sistema.

È difficile valutare l’efficacia di Maven in quanto il Pentagono e gli appaltatori mantengono molti segreti e dettagli sui casi di impiego. Tuttavia, delle prove indirette indicano la portata. I centri di analisi hanno stimato che, dopo le prime settimane dell’operazione in Iran, l’intensità degli attacchi abbia raggiunto i 300-500 obiettivi al giorno. Asd esempio, nel solo primo giorno dell’operazione, sono stati segnalati oltre 1.000 obiettivi colpiti.

Questa velocità fa sì che le decisioni non vengano valutate in tutta la loro catena dagli essere umani, ma implementate quasi in tempo reale. È qui che Maven da il meglio di sé, riducendo il tempo tra la scoperta e l’azione, trasformando questo flusso di dati in istruzioni concrete.

Ma questo “acceleratore” porta con se degli incredibili rischi. In attacchi ad alta densità, si aumenta drasticamente la probabilità di errori sui bersagli, e tali errori si riversano sulla morte di poveri innocenti. I resoconti di recenti attacchi hanno menzionato infatti dei casi in cui sono stati colpiti obiettivi, tra cui abitazioni di civili, compresi bambini.

Maven dimostra che la logica della guerra sta cambiando e l’attenzione si sta gradualmente spostando dalla quantità di equipaggiamento alla velocità di elaborazione delle informazioni e la velocità di prendere decisioni.

In un sistema del genere, la parte che trasforma i dati in azioni più rapidamente ottiene un vantaggio, anche se l’allucinazione diventa lo spettro principale. Infatti, le “allucinazioni”, non hanno una percentuale fissa, ma le stime indicano un range compreso tra il 5% e 15% su task semplici, che può salire al 20–30% in contesti complessi, fino a percentuali più alte con dati incompleti o non verificabili.

Traslando questo in ambito militare, il problema cambia natura. Anche ipotizzando sistemi più avanzati, addestrati su “dataset classificati” e integrati con sensori di varia natura, il margine di errore non scompare. Si riduce, ma resta. E quando il processo decisionale viene accelerato passando da ore a secondi anche la minima percentuale di errore può tradursi in conseguenze reali sul campo.

Chi ne risponderà quindi?


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Carolina Vivianti 300x300
Carolina Vivianti è consulente/Advisor autonomo in sicurezza informatica con esperienza nel settore tech e security. Ha lavorato come Security Advisor per Ford EU/Ford Motor Company e Vodafone e ha studi presso la Sapienza Università di Roma.
Aree di competenza: Cybersecurity, IT Risk Management, Security Advisory, Threat Analysis, Data Protection, Cloud Security, Compliance & Governance