Un drone militare guidato da una intelligenza artificiale, può uccidere?
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Crowdstriker 970×120
UtiliaCS 320x100
Un drone militare guidato da una intelligenza artificiale, può uccidere?

Un drone militare guidato da una intelligenza artificiale, può uccidere?

Redazione RHC : 3 Giugno 2021 09:00

Autore: Roberto Capra

Data Pubblicazione: 31/05/2021


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Nell’articolo precedente si è brevemente parlato del rapporto tra la cyber warfare ed il diritto Internazionale ed Umanitario e di come quest’ultimo sia ancora troppo “antiquato” per poter gestire tale evoluzione bellica. Un’altra questione che si pone in tale ambito è la possibilità e la conseguente regolamentazione dell’utilizzo delle intelligenze artificiali.

Le armi autonome guidate dalle IA

L’introduzione di queste tecnologie in ambito militare, in realtà, è già avvenuta: per esempio possono essere utilizzate in macchinari a supporto di operazioni ad alto rischio, come il disinnesco di ordigni, oppure di armi per l’eliminazione di bersagli considerati particolarmente sensibili. I macchinari, tuttavia, sono sempre sotto lo stretto controllo di un operatore umano: di fatto sono delle versioni evolute di macchinari telecomandati, comunque dipendenti da personale in carne ed ossa che ne controlla l’operatività.

Il problema sull’utilizzo delle IA si pone allorché si pensi a Intelligenze di altissimo livello programmate per scopi bellici: già Stephen Hawking aveva ipotizzato che il loro problema non sarebbe stata la cattiveria, ma la troppa efficienza. Se questa affermazione può stupire (come può una cosa efficiente diventare un problema?), in realtà è solo una conseguenza dell’osservazione della realtà tecnica per come la conosciamo oggi.

Il punto di vista etico

L’essere umano può provare paura, rimorso, pietà. L’IA no. È un software programmato per eseguire un compito e lo farà fino a che l’hardware che lo sta facendo funzionare è in grado di farlo. L’unica cosa che può accomunare soldati e, per esempio, droni militari armati e interamente controllati dalle IA, è la possibilità di essere feriti\danneggiati o uccisi\abbattuti. Ma mentre l’essere umano potrebbe ritirarsi per una valutazione del campo, oppure interrompere le azioni a seguito di alcune reazioni di possibili civili presenti, l’IA probabilmente continuerà il suo compito.

L’altro problema legato all’uso delle IA è la loro programmazione: sono software e come tali lavorano su modelli. Potrebbero essere sufficienti delle variazioni rispetto a modelli standardizzati per trarre in inganno un sistema, generando quindi una reazione errata (in un esperimento, una tartaruga è stata scambiata per un fucile d’assalto). Vi è anche un ulteriore problema legato alla natura software delle IA: sono soggette ad attacchi informatici che – tra le altre cose – potrebbero disattivarle o anche alterarne gli obiettivi.

Inoltre, sarebbe necessario insegnare ai sistemi guidati da IA autonome, come distinguere i civili dai combattenti, onde evitare – specialmente in scenari di guerriglia urbana o comunque di combattimenti in zone abitate – azioni indiscriminate nei confronti di tutti i soggetti che si trovino nel raggio d’azione dell’IA in combattimento.

Dal punto di vista normativo

Allo stato dell’arte, non vi è alcuna norma internazionale che regoli l’eventuale utilizzo di IA autonome in scenari di guerra. L’unica clausola di salvaguardia è la c.d. “clausola Martens” ove si dichiara che – in assenza di specifiche regolamentazioni di guerra – sia le popolazioni che i belligeranti rimangono “sotto la salvaguardia e l’imperio del diritto delle genti”. Le norme internazionali prevedono, altresì, che l’impiego di armi e mezzi di guerra debba essere proporzionato al vantaggio militare cercato, anche con lo scopo di limitare i danni alle strutture ed alle popolazioni civili.

Proprio quest’ultima norma potrebbe costituire una barriera all’introduzione di IA avanzate ed autonome in scenari di guerra: queste potrebbero essere programmate per indirizzarsi autonomamente verso un dato obiettivo, senza però avere le istruzioni o – più semplicemente – le capacità di interrompere l’attacco in caso di modificazioni dello scenario previsto.

Fatti di oggi

In tal senso è interessante citare un articolo apparso il 29 maggio 2021 sul New York Post. In esso viene citato un report del Panel di esperti sulla Libia del Consiglio di Sicurezza dell’ONU, che avrebbe riferito di un attacco da parte di un drone killer ad alta autonomia avvenuto nel marzo 2020 in Libia.

A differenza di altri droni ad uso militare, sembra che lo strumento in oggetto – imbottito di esplosivo e destinato ad un attacco kamikaze – non avesse alcuna necessità di connessione con un operatore umano per attaccare i suoi obiettivi. Se questa ricostruzione dei fatti venisse confermata, potremmo trovarci di fronte al primo attacco perpetrato da armi autonome nei confronti degli esseri umani. L’episodio ha avuto una discreta risonanza tra gli addetti ai lavori, tra cui l’analista e ricercatore Zachary Kallenborn che si è chiesto quanto fosse precisa la rilevazione degli obiettivi di questi strumenti e dell’entità del loro margine di errore.

Conclusioni

Da questa breve panoramica è evidente come le armi autonome possano diventare degli armamenti ben più pericolosi rispetto a quelli conosciuti fino ad oggi. Proprio per questo è importante un’attenta analisi da parte degli esperti e dell’intera Comunità Internazionale sul loro eventuale sviluppo e sulla possibilità e\o i limiti da porre al loro utilizzo

Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
WhatsApp: basta un numero di telefono per sapere quando dormi, esci o torni a casa
Di Redazione RHC - 14/12/2025

È stato rilasciato uno strumento che consente il monitoraggio discreto dell’attività degli utenti di WhatsApp e Signal utilizzando solo un numero di telefono. Il meccanismo di monitoraggio copre o...

Immagine del sito
MITRE pubblica la lista delle TOP25 debolezze software più pericolose del 2025
Di Redazione RHC - 13/12/2025

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Immagine del sito
Il Day-One del Caos di React2Shell! Spie, criminali e cryptominer si contendono i server
Di Redazione RHC - 13/12/2025

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

Immagine del sito
Agenzia delle Entrate: accesso admin in vendita a 500$? Ecco perché i conti non tornano
Di Vincenzo Miccoli - 13/12/2025

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

Immagine del sito
Apple aggiorna due bug 0day critici in iOS, presumibilmente abusati dagli spyware
Di Redazione RHC - 13/12/2025

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...