Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

IA e Difesa: Il Bottone Rosso per il lancio dei Missili Nucleari Verrà affidato ai Robot?

Redazione RHC : 2 Novembre 2024 09:41

Il generale dell’aeronautica americana Anthony J. Cotton ha parlato dell’importante ruolo dell’intelligenza artificiale (AI) nella gestione dell’arsenale nucleare del paese. Cotton ha spiegato che sono in fase di sviluppo sistemi di supporto decisionale basati sull’intelligenza artificiale per aiutare i leader statunitensi a rispondere più rapidamente alle situazioni critiche. Il generale ha sottolineato che le tecnologie dell’intelligenza artificiale aiuteranno ad affrontare meglio compiti complessi e a rafforzare la sicurezza nazionale.

L’adozione dell’intelligenza artificiale nei sistemi militari statunitensi sta progredendo rapidamente, come nel caso dei settori commerciali come la Silicon Valley. Tuttavia, i dettagli specifici dell’uso dell’intelligenza artificiale da parte dei militari rimangono segreti, sollevando molte domande. Il generale Cotton, a capo di STRATCOM, ha confermato che la modernizzazione dei sistemi nucleari sarà una priorità assoluta. Nei prossimi decenni, 1,7 trilioni di dollari saranno spesi per l’ammodernamento delle infrastrutture, e l’intelligenza artificiale giocherà un ruolo importante in questo processo, che aiuterà ad automatizzare la gestione dell’arsenale nucleare.

Secondo il generale, l’intelligenza artificiale e i moderni metodi di elaborazione dei dati aumenteranno significativamente l’efficienza dei sistemi nucleari e il livello di deterrenza nei confronti di potenziali minacce. Ha inoltre sottolineato che, nonostante le nuove tecnologie, la decisione finale spetterà sempre alla persona. L’intelligenza artificiale diventerà un “moltiplicatore di forza”: la macchina accelererà l’analisi delle informazioni, ma le decisioni cruciali saranno prese dalle persone.


PARTE LA PROMO ESTATE -40%

RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!

Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]



Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


Gli esperti del settore ritengono che l’intelligenza artificiale sia progettata per analizzare i dati, non per lanciare effettivamente missili. Secondo gli esperti, l’intelligenza artificiale, ad esempio, raccoglierà e analizzerà i dati dai satelliti per identificare possibili minacce. Tuttavia, anche qui ci sono dei rischi, poiché nella storia ci sono già stati casi in cui i sistemi automatici hanno commesso errori e solo grazie all’uomo è stato possibile evitare il disastro.

Ad esempio, nel 1956, il sistema scambiò uno stormo di uccelli per un aereo nemico e nel 1960 il sorgere della luna fu percepito come un attacco missilistico. Incidenti come questi dimostrano quanto sia importante per le persone comprendere come funzionano i sistemi ed essere in grado di distinguere tempestivamente tra un fallimento e una minaccia reale.

Anche l’intelligenza artificiale nei sistemi nucleari ha il suo lato oscuro. Il modello di apprendimento dell’AI è spesso una scatola nera, ed è difficile prevedere tutti i possibili errori che possono verificarsi in situazioni critiche. Gli esperti sottolineano che l’utilizzo dell’intelligenza artificiale a questo livello richiede una formazione seria del personale in grado di identificare gli errori e comprendere come questi possano influenzare le conclusioni tratte dal sistema. Qualifiche insufficienti nel lavorare con l’intelligenza artificiale possono portare a conseguenze fatali se il sistema automatico produce dati errati.

Il generale Cotton ha osservato che il Pentagono sta riscontrando una carenza di specialisti in grado di implementare e gestire adeguatamente l’intelligenza artificiale nei sistemi nucleari. È estremamente difficile attrarre tali dipendenti in un ambiente competitivo con società commerciali che offrono salari più alti, ma il lavoro stesso con tecnologie uniche rappresenta un forte incentivo tali specialisti.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...

Se è gratuito, il prodotto sei tu. Google paga 314 milioni di dollari per violazione dei dati agli utenti Android

Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...

CTF di RHC 2025. Ingegneria sociale in gioco: scopri la quarta “flag” non risolta

La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...

Linux Pwned! Privilege Escalation su SUDO in 5 secondi. HackerHood testa l’exploit CVE-2025-32463

Nella giornata di ieri, Red Hot Cyber ha pubblicato un approfondimento su una grave vulnerabilità scoperta in SUDO (CVE-2025-32463), che consente l’escalation dei privilegi a root in ambie...

Hackers nordcoreani a libro paga. Come le aziende hanno pagato stipendi a specialisti IT nordcoreani

Il Dipartimento di Giustizia degli Stati Uniti ha annunciato la scoperta di un sistema su larga scala in cui falsi specialisti IT provenienti dalla RPDC i quali ottenevano lavoro presso aziende americ...