Redazione RHC : 28 Febbraio 2024 08:01
Tecnologie di intelligenza artificiale promettenti ma controverse vengono testate dal Pentagono. L’obiettivo è adattare le capacità delle reti neurali alle esigenze dell’esercito americano.
Secondo DefenseScoop, il Dipartimento della Difesa ha assegnato un contratto alla startup AI Scale AI. Il suo obiettivo è creare strumenti per testare e valutare le prestazioni di grandi modelli linguistici in grado di analizzare e generare testo.
Stiamo parlando di una piattaforma completa che consentirà al Pentagono di studiare in modo approfondito e completo le capacità delle reti neurali. Il sistema fornirà feedback ai militari, oltre a generare dati di test speciali per testare l’IA su compiti specifici. Ad esempio, per analizzare dati di intelligence, pianificare operazioni, elaborare report da hot spot.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Secondo Craig Martell, uno specialista di intelligenza artificiale del Pentagono, le reti neurali possono accelerare radicalmente l’elaborazione delle informazioni di intelligence in arrivo e il processo decisionale strategico:
“Immaginate che invece di ricevere nuove informazioni sotto forma di ingombranti presentazioni PowerPoint o lunghe attese per rapporti via e-mail da diverse unità, i comandanti saranno in grado di vedere immediatamente la situazione attuale per prendere decisioni, riducendo i tempi di risposta da uno o due giorni a 10 minuti.”
Tuttavia, l’ostacolo principale è la tendenza dell’intelligenza artificiale a generare materiali falsi, le cosiddette “allucinazioni”. Il Pentagono spera che gli strumenti di Scale AI aiutino a identificare e prevenire tali minacce in anticipo.
L’anno scorso è stata creata la Task Force Lima, guidata da Martell, per studiare l’uso militare dell’intelligenza artificiale generativa. Ma per ora diverse unità, inclusa la Space Force, hanno vietato l’uso di sistemi come ChatGPT a causa del rischio di fuga di informazioni riservate.
“Abbiamo la responsabilità di implementare queste tecnologie in modo responsabile, tenendo conto dei rischi per la sicurezza e dei potenziali abusi”, ha concluso Martell.
Il Pentagono è quindi alla ricerca di un equilibrio tra il colossale potenziale delle reti neurali per l’esercito e i pericoli che esse nascondono. E il successo dei test attuali determinerà la rapidità con cui l’intelligenza artificiale generativa potrà passare dal laboratorio alle operazioni di combattimento reali.
E’ stata rilevata una falla critica zero-day nei sistemi Citrix NetScaler, catalogata come CVE-2025-6543, che è stata oggetto di sfruttamento attivo da parte degli hacker criminali da maggio 2025, ...
Il Pentagono ha inviato una “lettera di preoccupazione” a Microsoft documentando una “violazione di fiducia” in merito all’utilizzo da parte dell’azienda di ingegneri cinesi per la manuten...
Google è pronta ad adottare una posizione più proattiva per proteggere se stessa e potenzialmente altre organizzazioni statunitensi dagli attacchi informatici, con l’azienda che suggerisce di pote...
Una falla di sicurezza nelle app di messaggistica di WhatsApp per Apple iOS e macOS è stata sanata, come riferito dalla stessa società, dopo essere stata probabilmente sfruttata su larga scala insie...
Un avviso di sicurezza di vasta portata è stato pubblicato da Google per i 2,5 miliardi di utenti del suo servizio Gmail, con l’obiettivo di rafforzare la protezione dei loro account a seguito di u...