Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Il Giappone frena sull’IA militare: niente armi che uccidono da sole. Serve il controllo umano

Il Giappone frena sull’IA militare: niente armi che uccidono da sole. Serve il controllo umano

17 Giugno 2025 22:22

Il 6 giugno 2025, il Ministero della Difesa giapponese ha pubblicato le prime linee guida ufficiali sull’uso responsabile dell’intelligenza artificiale (IA) nelle apparecchiature militari. La notizia è stata riportata da NHK e Yonhap News Agency il 9 giugno.

Le “Linee guida per l’applicazione responsabile dell’intelligenza artificiale nello sviluppo di apparecchiature” nascono dalla “Politica di base per la promozione dell’applicazione dell’IA” introdotta nel luglio 2024. Il documento punta a massimizzare l’efficacia dell’IA nei sistemi di difesa, minimizzando i rischi etici e operativi.

Le Linee Guida propongono un sistema di classificazione del rischio per l’IA militare, suddividendo le apparecchiature in due categorie: “a basso rischio” e “ad alto rischio”. I sistemi a basso rischio richiedono comunque un intervento umano durante il processo d’attacco, mentre quelli ad alto rischio possono selezionare autonomamente i bersagli. Questi ultimi saranno sottoposti a una valutazione legale più rigorosa, anche per verificare se rientrano nella definizione di sistemi d’arma letali autonomi (LAWS), la cui realizzazione è vietata.

Advertising

Le apparecchiature a basso rischio, invece, saranno soggette a revisioni interne indipendenti, per garantire il rispetto degli standard di sicurezza e affidabilità. Nel caso dei sistemi ad alto rischio, la revisione include anche il rispetto delle normative internazionali, e sarà il Ministero stesso a vietarne lo sviluppo se superano determinate soglie critiche. Un aspetto centrale del processo è garantire che ogni tecnologia resti sotto controllo umano, evitando derive autonome incontrollabili.

A completare il quadro, è prevista una valutazione tecnica da parte di un team di esperti, che verificherà la sicurezza, la trasparenza e la responsabilità umana nel funzionamento dell’IA. I criteri di valutazione includono sette requisiti fondamentali, tra cui: la possibilità di attribuire le responsabilità, la prevenzione dei guasti, e la tracciabilità delle decisioni delle IA. Si tratta di un primo passo importante verso una difesa automatizzata ma responsabile, in un contesto geopolitico sempre più complesso.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.