Redazione RHC : 28 Febbraio 2024 08:01
Tecnologie di intelligenza artificiale promettenti ma controverse vengono testate dal Pentagono. L’obiettivo è adattare le capacità delle reti neurali alle esigenze dell’esercito americano.
Secondo DefenseScoop, il Dipartimento della Difesa ha assegnato un contratto alla startup AI Scale AI. Il suo obiettivo è creare strumenti per testare e valutare le prestazioni di grandi modelli linguistici in grado di analizzare e generare testo.
Stiamo parlando di una piattaforma completa che consentirà al Pentagono di studiare in modo approfondito e completo le capacità delle reti neurali. Il sistema fornirà feedback ai militari, oltre a generare dati di test speciali per testare l’IA su compiti specifici. Ad esempio, per analizzare dati di intelligence, pianificare operazioni, elaborare report da hot spot.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Secondo Craig Martell, uno specialista di intelligenza artificiale del Pentagono, le reti neurali possono accelerare radicalmente l’elaborazione delle informazioni di intelligence in arrivo e il processo decisionale strategico:
“Immaginate che invece di ricevere nuove informazioni sotto forma di ingombranti presentazioni PowerPoint o lunghe attese per rapporti via e-mail da diverse unità, i comandanti saranno in grado di vedere immediatamente la situazione attuale per prendere decisioni, riducendo i tempi di risposta da uno o due giorni a 10 minuti.”
Tuttavia, l’ostacolo principale è la tendenza dell’intelligenza artificiale a generare materiali falsi, le cosiddette “allucinazioni”. Il Pentagono spera che gli strumenti di Scale AI aiutino a identificare e prevenire tali minacce in anticipo.
L’anno scorso è stata creata la Task Force Lima, guidata da Martell, per studiare l’uso militare dell’intelligenza artificiale generativa. Ma per ora diverse unità, inclusa la Space Force, hanno vietato l’uso di sistemi come ChatGPT a causa del rischio di fuga di informazioni riservate.
“Abbiamo la responsabilità di implementare queste tecnologie in modo responsabile, tenendo conto dei rischi per la sicurezza e dei potenziali abusi”, ha concluso Martell.
Il Pentagono è quindi alla ricerca di un equilibrio tra il colossale potenziale delle reti neurali per l’esercito e i pericoli che esse nascondono. E il successo dei test attuali determinerà la rapidità con cui l’intelligenza artificiale generativa potrà passare dal laboratorio alle operazioni di combattimento reali.
Una nuova campagna di phishing sta circolando in queste ore con un obiettivo ben preciso: spaventare le vittime con la minaccia di una multa stradale imminente e gonfiata, apparentemente proveniente d...
Negli ultimi giorni, NS Power, una delle principali aziende elettriche canadesi, ha confermato di essere stata vittima di un attacco informatico e ha pubblicato degli update all’interno della H...
1° Maggio, un giorno per onorare chi lavora, chi lotta per farlo in modo dignitoso e chi, troppo spesso, perde la vita mentre svolge la propria mansione. Nel 2025, l’Italia continua a pian...
Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...
Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006