
Il mese scorso l’informatico Stuart Russell (noto per i suoi contributi all’intelligenza artificiale), ha incontrato alti funzionari del Dipartimento della Difesa del Regno Unito con l’unico scopo di avvertire che la trasformazione dell’intelligenza artificiale in un’arma potrebbe distruggere la razza umana.
Britannico di nazionalità, professore all’Università della California a Berkeley Stuart Russell è un pioniere nel campo della ricerca sull’intelligenza artificiale. Negli ultimi dieci anni, ha compiuto enormi sforzi per impedire che l’intelligenza artificiale possa essere utilizzata per trovare e uccidere le persone.
Russell, che incontra regolarmente i governi a livello internazionale, ha osservato che gli Stati Uniti e la Russia, così come il Regno Unito, Israele e l’Australia, continuano a opporsi a una moratoria sull’uso di armi letali autonome.
“C’è ancora un’interruzione nella comunicazione, molti governi e militari non capiscono quale sia l’obiezione (contro l’uso di armi letali autonome)”
ha detto Russell al Financial Times. Il loro argomento principale è questo:
“Non vendiamo armi nei centri commerciali e, nel caso delle tecnologie AI, nemmeno lo faremo”.
Tuttavia, il professore ritiene che le armi leggere, economiche e facili da fabbricare che utilizzano le tecnologie dell’intelligenza artificiale possano diventare onnipresenti come i fucili automatici, più di 100 milioni dei quali sono in mani private.
Le armi alimentate dall’intelligenza artificiale non sono più solo fantascienza e sono diventate un’industria in rapido sviluppo e completamente non regolamentata, ha affermato il professore.
“Puoi comprarlo oggi. È pubblicizzato sul Web”
ha detto Stewart.

STM Kargu
Nel novembre 2017, la società turca STM ha introdotto Kargu, un drone da combattimento completamente autonomo in grado di agganciare obiettivi basati su immagini e un sistema di riconoscimento facciale.
Il drone è stato utilizzato durante i conflitti militari in Libia nel 2020, nonostante il divieto delle Nazioni Unite.
Stewart ha anche menzionato l’aereo ad ala fissa israeliano Harpy, in grado di trasportare fino a 23 kg di esplosivo, e il suo successore, l’Harop.

HAROP
Entrambi i velivoli possono essere controllati da remoto o volare in modo autonomo se l’operatore umano indica la posizione del bersaglio e il bersaglio stesso. Harop sarebbe già stato acquisito dall’esercito in India e Azerbaigian.

IAI Harpy (Israele)
Russell ha avvertito che la proliferazione delle armi alimentate dall’intelligenza artificiale è una minaccia imminente e reale.
“Un letale quadrirotore AI può avere le dimensioni di una lattina di lucido da scarpe. Circa tre grammi di esplosivo sono sufficienti per uccidere una persona a distanza ravvicinata. Quindi la fine inevitabile sarà che le armi autonome diventino armi economiche e selettive di distruzione di massa”
ha detto Stewart.
In definitiva, dice il professore, l’unico modo per convincere governi come Stati Uniti, Russia e Regno Unito che sono ancora contrari al divieto è fare appello al loro senso di autoconservazione.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CyberpoliticaDietro il nome tecnicamente anodino di ChatControl si muove una delle più profonde torsioni del rapporto tra Stato, tecnologia e cittadini mai tentate nell’Unione europea. Non è una legge “contro la pedopornografia online”, come viene…
CulturaConosciamo quello che è stato considerato uno degli uomini di scienza, forse pari solo a Einstein, più poliedrici e geniali dello scorso secolo. Con un ampissimo spettro di talenti scientifici, sviluppati anche grazie ad un…
CybercrimeLa comunità dei criminali informatici sta rapidamente aumentando il suo interesse nel reclutare personale all’interno delle aziende. Invece di sofisticati attacchi esterni, i criminali si affidano sempre più a fonti interne, ovvero persone disposte a…
CyberpoliticaNella Virginia settentrionale, lungo quello che viene ormai definito il “corridoio dei data center”, sorgono enormi strutture senza finestre che costituiscono l’ossatura fisica della corsa statunitense all’intelligenza artificiale. Questi edifici, grandi quanto hangar industriali, assorbono…
HackingIl team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…