
Redazione RHC : 5 Dicembre 2021 12:40
Il mese scorso l’informatico Stuart Russell (noto per i suoi contributi all’intelligenza artificiale), ha incontrato alti funzionari del Dipartimento della Difesa del Regno Unito con l’unico scopo di avvertire che la trasformazione dell’intelligenza artificiale in un’arma potrebbe distruggere la razza umana.
Britannico di nazionalità, professore all’Università della California a Berkeley Stuart Russell è un pioniere nel campo della ricerca sull’intelligenza artificiale. Negli ultimi dieci anni, ha compiuto enormi sforzi per impedire che l’intelligenza artificiale possa essere utilizzata per trovare e uccidere le persone.
Russell, che incontra regolarmente i governi a livello internazionale, ha osservato che gli Stati Uniti e la Russia, così come il Regno Unito, Israele e l’Australia, continuano a opporsi a una moratoria sull’uso di armi letali autonome.
“C’è ancora un’interruzione nella comunicazione, molti governi e militari non capiscono quale sia l’obiezione (contro l’uso di armi letali autonome)”
ha detto Russell al Financial Times. Il loro argomento principale è questo:
“Non vendiamo armi nei centri commerciali e, nel caso delle tecnologie AI, nemmeno lo faremo”.
Tuttavia, il professore ritiene che le armi leggere, economiche e facili da fabbricare che utilizzano le tecnologie dell’intelligenza artificiale possano diventare onnipresenti come i fucili automatici, più di 100 milioni dei quali sono in mani private.
Le armi alimentate dall’intelligenza artificiale non sono più solo fantascienza e sono diventate un’industria in rapido sviluppo e completamente non regolamentata, ha affermato il professore.
“Puoi comprarlo oggi. È pubblicizzato sul Web”
ha detto Stewart.

STM Kargu
Nel novembre 2017, la società turca STM ha introdotto Kargu, un drone da combattimento completamente autonomo in grado di agganciare obiettivi basati su immagini e un sistema di riconoscimento facciale.
Il drone è stato utilizzato durante i conflitti militari in Libia nel 2020, nonostante il divieto delle Nazioni Unite.
Stewart ha anche menzionato l’aereo ad ala fissa israeliano Harpy, in grado di trasportare fino a 23 kg di esplosivo, e il suo successore, l’Harop.

HAROP
Entrambi i velivoli possono essere controllati da remoto o volare in modo autonomo se l’operatore umano indica la posizione del bersaglio e il bersaglio stesso. Harop sarebbe già stato acquisito dall’esercito in India e Azerbaigian.

IAI Harpy (Israele)
Russell ha avvertito che la proliferazione delle armi alimentate dall’intelligenza artificiale è una minaccia imminente e reale.
“Un letale quadrirotore AI può avere le dimensioni di una lattina di lucido da scarpe. Circa tre grammi di esplosivo sono sufficienti per uccidere una persona a distanza ravvicinata. Quindi la fine inevitabile sarà che le armi autonome diventino armi economiche e selettive di distruzione di massa”
ha detto Stewart.
In definitiva, dice il professore, l’unico modo per convincere governi come Stati Uniti, Russia e Regno Unito che sono ancora contrari al divieto è fare appello al loro senso di autoconservazione.
Redazione
Gli esperti del Group-IB hanno presentato un’analisi dettagliata della lunga campagna di UNC2891, che ha dimostrato la continua sofisticatezza degli schemi di attacco agli sportelli bancomat. L’at...

L’azienda israeliana NSO Group ha presentato ricorso contro una decisione di un tribunale federale della California che le vieta di utilizzare l’infrastruttura di WhatsApp per diffondere il softwa...

Una vulnerabilità, contrassegnata come CVE-2025-61757, è stata resa pubblica Searchlight Cyber giovedì scorso. I ricercatori dell’azienda hanno individuato il problema e hanno informato Oracle, c...

Negli ultimi mesi il problema degli insider sta assumendo un peso sempre più crescente per le grandi aziende, e un episodio ha coinvolto recentemente CrowdStrike. La società di cybersecurity ha infa...

La campagna su larga scala TamperedChef sta nuovamente attirando l’attenzione degli specialisti, poiché gli aggressori continuano a distribuire malware tramite falsi programmi di installazione di a...