Un drone militare guidato da una intelligenza artificiale, può uccidere?

Autore: Roberto Capra

Data Pubblicazione: 31/05/2021


Nell’articolo precedente si è brevemente parlato del rapporto tra la cyber warfare ed il diritto Internazionale ed Umanitario e di come quest’ultimo sia ancora troppo “antiquato” per poter gestire tale evoluzione bellica. Un’altra questione che si pone in tale ambito è la possibilità e la conseguente regolamentazione dell’utilizzo delle intelligenze artificiali.


Le armi autonome guidate dalle IA

L’introduzione di queste tecnologie in ambito militare, in realtà, è già avvenuta: per esempio possono essere utilizzate in macchinari a supporto di operazioni ad alto rischio, come il disinnesco di ordigni, oppure di armi per l’eliminazione di bersagli considerati particolarmente sensibili. I macchinari, tuttavia, sono sempre sotto lo stretto controllo di un operatore umano: di fatto sono delle versioni evolute di macchinari telecomandati, comunque dipendenti da personale in carne ed ossa che ne controlla l’operatività.



Il problema sull’utilizzo delle IA si pone allorché si pensi a Intelligenze di altissimo livello programmate per scopi bellici: già Stephen Hawking aveva ipotizzato che il loro problema non sarebbe stata la cattiveria, ma la troppa efficienza. Se questa affermazione può stupire (come può una cosa efficiente diventare un problema?), in realtà è solo una conseguenza dell’osservazione della realtà tecnica per come la conosciamo oggi.


Il punto di vista etico

L’essere umano può provare paura, rimorso, pietà. L’IA no. È un software programmato per eseguire un compito e lo farà fino a che l’hardware che lo sta facendo funzionare è in grado di farlo. L’unica cosa che può accomunare soldati e, per esempio, droni militari armati e interamente controllati dalle IA, è la possibilità di essere feriti\danneggiati o uccisi\abbattuti. Ma mentre l’essere umano potrebbe ritirarsi per una valutazione del campo, oppure interrompere le azioni a seguito di alcune reazioni di possibili civili presenti, l’IA probabilmente continuerà il suo compito.


L’altro problema legato all’uso delle IA è la loro programmazione: sono software e come tali lavorano su modelli. Potrebbero essere sufficienti delle variazioni rispetto a modelli standardizzati per trarre in inganno un sistema, generando quindi una reazione errata (in un esperimento, una tartaruga è stata scambiata per un fucile d’assalto). Vi è anche un ulteriore problema legato alla natura software delle IA: sono soggette ad attacchi informatici che – tra le altre cose - potrebbero disattivarle o anche alterarne gli obiettivi.