
Redazione RHC : 15 Agosto 2025 19:10
Sembra che gli Stati Uniti abbiano già seriamente preso in considerazione il concetto di guerra autonoma. Il jet da combattimento autonomo della DARPA , risulta in grado di combattere senza pilota, non è più considerato una svolta: l’agenzia è passata alla fase successiva di sviluppo, con l’obiettivo di creare sistemi in grado di controllare un gruppo di jet da combattimento in missioni congiunte oltre il raggio visivo.
Il nuovo programma della DARPA, Artificial Intelligence Reinforcements (AIR), si basa sul progetto Air Combat Evolution (ACE) , che ha messo a confronto F-16 dotati di intelligenza artificiale con velivoli con equipaggio in un addestramento “dogfight”. L’obiettivo è aumentare l’autonomia fino al punto in cui tali velivoli possano operare in formazione, coordinandosi su lunghe distanze e in ambienti di combattimento complessi. Il programma fa parte di una più ampia militarizzazione dell’intelligenza artificiale che sta sollevando preoccupazioni sulla sua sicurezza.
Sebbene AIR sia stato avviato più tardi di ACE, il concetto in sé non è nuovo: la prima domanda per il programma è stata pubblicata nel 2022. Questa settimana, la DARPA ha assegnato silenziosamente a Systems & Technology Research (STR) un contratto da 11,3 milioni di dollari nell’ambito della cosiddetta “Opzione Uno“. Come ha spiegato l’agenzia, questa è già la seconda delle due fasi previste del programma, il che indica che il progetto sta procedendo.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
All’inizio di AIR, il programma coinvolgeva sei appaltatori, ma nella seconda fase il numero è stato ridotto a quattro. STR è responsabile di una delle due aree tecniche chiave: lo sviluppo di algoritmi che consentiranno l’esecuzione distribuita e autonoma di missioni tattiche in tempo reale in ambienti incerti, in rapida evoluzione e complessi. La seconda area prevede la creazione di modelli rapidi e accurati in grado di tenere conto dell’incertezza e di migliorare automaticamente con l’accumulo di dati.
Secondo la documentazione iniziale, l’AIR dovrebbe utilizzare sistemi di sensori, sistemi di guerra elettronica e armi esistenti. Le fasi di test includeranno simulazioni, quindi test con un essere umano nel circuito di controllo e infine test su un vero velivolo da combattimento senza pilota. Sviluppi simili sono già stati dimostrati: l’esercito statunitense ha creato un sistema robotico in grado di abbattere autonomamente i droni.
Oltre a STR, al progetto hanno partecipato anche Lockheed Martin e BAE Systems , ma la DARPA non ha ancora reso noto chi sarà incluso esattamente nella seconda fase: la selezione dei partecipanti è ancora in corso. I dettagli del lavoro nella prima e nella seconda fase rimangono riservati, ma è noto che la prossima fase durerà circa 30 mesi e coprirà la parte restante del programma.
La questione di quando i piloti saranno effettivamente costretti a cedere il passo all’intelligenza artificiale rimane aperta. E mentre gli sviluppatori stanno testando l’autonomia tattica, i critici non escludono scenari più inaspettati, fino al punto che un giorno un jet da combattimento autonomo decida di abbandonare una missione di combattimento. Gli esperti avvertono che la diffusione dell’IA militare potrebbe rendere il mondo meno sicuro , poiché l’IA commette errori e le conseguenze possono essere fatali . La comunità internazionale sta cercando di sviluppare un patto globale contro l’IA militare .
Redazione
Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...