Redazione RHC : 28 Febbraio 2024 08:01
Tecnologie di intelligenza artificiale promettenti ma controverse vengono testate dal Pentagono. L’obiettivo è adattare le capacità delle reti neurali alle esigenze dell’esercito americano.
Secondo DefenseScoop, il Dipartimento della Difesa ha assegnato un contratto alla startup AI Scale AI. Il suo obiettivo è creare strumenti per testare e valutare le prestazioni di grandi modelli linguistici in grado di analizzare e generare testo.
Stiamo parlando di una piattaforma completa che consentirà al Pentagono di studiare in modo approfondito e completo le capacità delle reti neurali. Il sistema fornirà feedback ai militari, oltre a generare dati di test speciali per testare l’IA su compiti specifici. Ad esempio, per analizzare dati di intelligence, pianificare operazioni, elaborare report da hot spot.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Secondo Craig Martell, uno specialista di intelligenza artificiale del Pentagono, le reti neurali possono accelerare radicalmente l’elaborazione delle informazioni di intelligence in arrivo e il processo decisionale strategico:
“Immaginate che invece di ricevere nuove informazioni sotto forma di ingombranti presentazioni PowerPoint o lunghe attese per rapporti via e-mail da diverse unità, i comandanti saranno in grado di vedere immediatamente la situazione attuale per prendere decisioni, riducendo i tempi di risposta da uno o due giorni a 10 minuti.”
Tuttavia, l’ostacolo principale è la tendenza dell’intelligenza artificiale a generare materiali falsi, le cosiddette “allucinazioni”. Il Pentagono spera che gli strumenti di Scale AI aiutino a identificare e prevenire tali minacce in anticipo.
L’anno scorso è stata creata la Task Force Lima, guidata da Martell, per studiare l’uso militare dell’intelligenza artificiale generativa. Ma per ora diverse unità, inclusa la Space Force, hanno vietato l’uso di sistemi come ChatGPT a causa del rischio di fuga di informazioni riservate.
“Abbiamo la responsabilità di implementare queste tecnologie in modo responsabile, tenendo conto dei rischi per la sicurezza e dei potenziali abusi”, ha concluso Martell.
Il Pentagono è quindi alla ricerca di un equilibrio tra il colossale potenziale delle reti neurali per l’esercito e i pericoli che esse nascondono. E il successo dei test attuali determinerà la rapidità con cui l’intelligenza artificiale generativa potrà passare dal laboratorio alle operazioni di combattimento reali.
La Sfida della Sicurezza nelle Reti Wi-Fi e una Soluzione Adattiva. Nell’era della connettività pervasiva, lo standard IEEE 802.11(meglio noto come Wi-Fi ), è diventato la spina dorsa...
Nel mese di aprile 2025, una valvola idraulica di una diga norvegese è stata forzatamente aperta da remoto per diverse ore, a seguito di un attacco informatico mirato. L’episodio, riportat...
Sul forum underground russo XSS è apparso un post che offre una “Collection di Lead Verificati Italia 2025” con oltre 1 milione di record. Questo tipo di inserzioni evidenzia la con...
Nel cuore dei conflitti contemporanei, accanto ai carri armati, ai droni e alle truppe, si combatte una guerra invisibile, silenziosa e spesso sottovalutata: la cyber war. Non è solo uno scenario...
Le autorità iberiche sono impegnate in un’indagine riguardante un pirata informatico che ha divulgato informazioni sensibili relative a funzionari pubblici e figure politiche di spicco. Tr...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006