Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Le armi alimentate dalle AI, saranno la distruzione della razza umana.

Redazione RHC : 5 Dicembre 2021 12:40

Il mese scorso l’informatico Stuart Russell (noto per i suoi contributi all’intelligenza artificiale), ha incontrato alti funzionari del Dipartimento della Difesa del Regno Unito con l’unico scopo di avvertire che la trasformazione dell’intelligenza artificiale in un’arma potrebbe distruggere la razza umana.

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Britannico di nazionalità, professore all’Università della California a Berkeley Stuart Russell è un pioniere nel campo della ricerca sull’intelligenza artificiale. Negli ultimi dieci anni, ha compiuto enormi sforzi per impedire che l’intelligenza artificiale possa essere utilizzata per trovare e uccidere le persone.

Russell, che incontra regolarmente i governi a livello internazionale, ha osservato che gli Stati Uniti e la Russia, così come il Regno Unito, Israele e l’Australia, continuano a opporsi a una moratoria sull’uso di armi letali autonome.

“C’è ancora un’interruzione nella comunicazione, molti governi e militari non capiscono quale sia l’obiezione (contro l’uso di armi letali autonome)”

ha detto Russell al Financial Times. Il loro argomento principale è questo:

“Non vendiamo armi nei centri commerciali e, nel caso delle tecnologie AI, nemmeno lo faremo”.

Tuttavia, il professore ritiene che le armi leggere, economiche e facili da fabbricare che utilizzano le tecnologie dell’intelligenza artificiale possano diventare onnipresenti come i fucili automatici, più di 100 milioni dei quali sono in mani private.

Le armi alimentate dall’intelligenza artificiale non sono più solo fantascienza e sono diventate un’industria in rapido sviluppo e completamente non regolamentata, ha affermato il professore.

“Puoi comprarlo oggi. È pubblicizzato sul Web”

ha detto Stewart.


STM Kargu

Nel novembre 2017, la società turca STM ha introdotto Kargu, un drone da combattimento completamente autonomo in grado di agganciare obiettivi basati su immagini e un sistema di riconoscimento facciale.

Il drone è stato utilizzato durante i conflitti militari in Libia nel 2020, nonostante il divieto delle Nazioni Unite.

Stewart ha anche menzionato l’aereo ad ala fissa israeliano Harpy, in grado di trasportare fino a 23 kg di esplosivo, e il suo successore, l’Harop.


HAROP

Entrambi i velivoli possono essere controllati da remoto o volare in modo autonomo se l’operatore umano indica la posizione del bersaglio e il bersaglio stesso. Harop sarebbe già stato acquisito dall’esercito in India e Azerbaigian.


IAI Harpy (Israele)

Russell ha avvertito che la proliferazione delle armi alimentate dall’intelligenza artificiale è una minaccia imminente e reale.

“Un letale quadrirotore AI può avere le dimensioni di una lattina di lucido da scarpe. Circa tre grammi di esplosivo sono sufficienti per uccidere una persona a distanza ravvicinata. Quindi la fine inevitabile sarà che le armi autonome diventino armi economiche e selettive di distruzione di massa”

ha detto Stewart.

In definitiva, dice il professore, l’unico modo per convincere governi come Stati Uniti, Russia e Regno Unito che sono ancora contrari al divieto è fare appello al loro senso di autoconservazione.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

GhostSec: Azienda Italiana Commissiona Attacco Informatico Al Governo Macedone

GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...

Un Database AT&T da 3GB viene Venduto nel Dark Web: 73 Milioni di Record a Rischio

Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...

Non fidarti del codice prodotto dalle AI! Un bug Giurassico del 2010 infetta anche GPT-4

E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...

Ancora attacchi alle infrastrutture Italiane. NoName057(16) sferra nuovi attacchi DDoS

Anche questa mattina, gli hacker di NoName057(16) procedono a sferrare attacchi DDoS contro diversi obiettivi italiani. Nell’ultimo periodo, Telegram ha intensificato la sua azione co...

Pornhub, Redtube e YouPorn si ritirano dalla Francia per colpa della legge sulla verifica dell’età

Secondo diverse indiscrezioni, il proprietario di Pornhub, Redtube e YouPorn ha intenzione di interrompere il servizio agli utenti francesi già mercoledì pomeriggio per protestare contro le ...