Israele Iran, Ucraina Russia: Benvenuti nell'AI-War. Quando uccidere è solo questione di Silicio
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Desktop
Banner Ransomfeed 320x100 1
Israele Iran, Ucraina Russia: Benvenuti nell’AI-War. Quando uccidere è solo questione di Silicio

Israele Iran, Ucraina Russia: Benvenuti nell’AI-War. Quando uccidere è solo questione di Silicio

Redazione RHC : 16 Aprile 2024 07:13

Lo sapevamo. Dietro al bello di CHAT GPT e Midjourney, il potenziamento continuo di robotica e AI, progetti classificati venivano realizzati in tutto il mondo.

Droni autonomi, sistemi di controllo e di pianificazione delle operazioni e chissà quale altra diavoleria bolliva in pentola all’interno delle agenzie militari di questo pianeta.

Ora è il momento di togliere il sipario: benvenuti nella Guerra AI.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

L’intelligenza artificiale sta svolgendo un ruolo importante, e secondo alcuni molto preoccupante, nella guerra di Israele a Gaza, con recenti rapporti investigativi che suggeriscono che l’esercito israeliano ha avviato un programma di intelligenza artificiale capace di prendere di mira migliaia di attivisti di Hamas nei primi giorni della guerra, e potrebbe aver avuto un ruolo nelle uccisioni sconsiderate e imprecise, nella distruzione dilagante e nelle migliaia di vittime civili.

L’esercito di occupazione israeliano respinge categoricamente questa affermazione, mentre un rapporto del sito web americano business insider fornisce uno sguardo terrificante su dove potrebbe portare la nuova guerra.

Un futuro terrificante

La decisione di uccidere un essere umano è una decisione molto importante”, ha detto a BI Mick Ryan, un maggiore generale e stratega australiano in pensione che si concentra sugli sviluppi della guerra.

All’inizio di questo mese, un’indagine congiunta della rivista +972 e Local Call ha rivelato che le forze di occupazione israeliane stavano utilizzando un programma di intelligenza artificiale chiamato “Lavender” per creare obiettivi sospetti per Hamas nella Striscia di Gaza, citando interviste con sei ufficiali anonimi dell’intelligence israeliana.

Il rapporto sostiene che l’IDF faceva molto affidamento su Lavender e trattava essenzialmente le informazioni su chi dovesse essere ucciso “come se fosse una decisione umanitaria”, dicono le fonti.

Una volta che un palestinese veniva collegato ad Hamas e veniva determinata l’ubicazione della sua casa, l’IDF ha effettivamente approvato la decisione della macchina, hanno detto le fonti. Gli ci sono voluti solo pochi secondi per esaminarla lui stesso.

L’indagine congiunta ha scoperto che la rapidità degli attacchi israeliani ha fatto ben poco per cercare di ridurre al minimo i danni ai civili nelle vicinanze. Lo scorso autunno sono venuti alla luce i dettagli del programma Gospel di Israele, rivelando che il progremma aveva aumentato la capacità di identificare obiettivi mirati, da circa 50 all’anno a più di 100 al giorno.

Interrogato sul rapporto, l’IDF ha rinviato il report con una dichiarazione “qualsiasi altra accusa dimostra una mancanza di conoscenza sufficiente delle operazioni dell’esercito di occupazione israeliano.

Kobbi Shoshani, Console Generale di Israele a Mumbai (rappresentante ufficiale dello Stato di Israele nel Maharashtra, Gujarat, Madhya Pradesh e Goa), ha descritto il sistema come un database di controllo “progettato per aiutare l’analisi umana, non per sostituirla”, ma ci sono comunque dei rischi potenziali di falsi positivi, come in qualsiasi altro software ai, solo che in questo caso non è l’etichettatura di un prodotto, è la vita delle persone.

La diffusione dell’intelligenza artificiale in guerra si è ampliata

Israele non è l’unico paese che esplora il potenziale dell’intelligenza artificiale in guerra. Questa ricerca è accompagnata da una maggiore attenzione all’uso di sistemi senza pilota, come il mondo vede sempre più spesso in Ucraina e altrove, le preoccupazioni sui robot assassini non sono più solo fantascienza

Proprio come l’intelligenza artificiale sta diventando più comune nel nostro lavoro e nella nostra vita personale, lo è anche nella nostra guerra”, ha detto a BI Peter Singer, un esperto di guerra del futuro presso il think tank New America, spiegando che “stiamo vivendo un nuovo rivoluzione industriale.” Proprio come con la recente meccanizzazione, il nostro mondo sta cambiando, sia in meglio che in peggio.

L’intelligenza artificiale si sta evolvendo più velocemente degli strumenti necessari per tenerla sotto controllo, e gli esperti hanno affermato che i rapporti sull’uso militare da parte di Israele sollevano una serie di preoccupazioni che sono da tempo al centro del dibattito sull’intelligenza artificiale nella guerra futura.

Molti paesi, tra cui Stati Uniti, Russia e Cina, hanno dato priorità all’implementazione di programmi di intelligenza artificiale nei loro eserciti, e al progetto americano Maven, che dal 2017 ha fatto grandi passi avanti per aiutare le forze sul terreno vagliando enormi quantità di informazioni. Tuttavia, la tecnologia si è spesso sviluppata più velocemente di quanto i governi riescano a tenere il passo.

econdo Ryan, la tendenza generale “è che la tecnologia e i requisiti del campo di battaglia stanno andando oltre la considerazione delle questioni legali ed etiche relative all’applicazione dell’intelligenza artificiale in guerra”. Gli attuali sistemi governativi e burocratici possono fare in modo che le politiche su queste questioni non possano tenere il passo, ha detto, aggiungendo che “potrebbero non riuscire mai a tenere il passo.”

Lo scorso novembre, durante una conferenza delle Nazioni Unite, diversi governi hanno espresso preoccupazione sulla necessità di nuove leggi per regolamentare l’uso dei programmi killer autonomi, ovvero macchine guidate dall’intelligenza artificiale coinvolte nel prendere decisioni per uccidere gli esseri umani.

Ma alcuni paesi, soprattutto quelli attualmente all’avanguardia nello sviluppo e nell’implementazione di queste tecnologie, si sono mostrati riluttanti a imporre nuove restrizioni e, in particolare, Stati Uniti, Russia e Israele sono sembrati particolarmente riluttanti a sostenere nuove leggi internazionali in materia.

Saremo responsabili nell’uso militare dell’intelligenza artificiale!

“Molti militari hanno detto: ‘Fidati di noi, saremo responsabili di questa tecnologia’”, ha detto a BI Paul Scharre, un esperto di armi autonome presso il Center for a New American Security. Ma in assenza di supervisione, è improbabile che molte persone si fideranno dell’uso dell’intelligenza artificiale da parte di Alcuni paesi, come Israele, hanno poca fiducia nel fatto che i militari utilizzeranno sempre le nuove tecnologie in modo responsabile.

Un programma come Lavender, secondo quanto riferito, non sembra fantascienza ed è del tutto in linea con il modo in cui gli eserciti globali mirano a utilizzare l’intelligenza artificiale, ha detto Paul Scharre. e prendere decisioni su quali obiettivi attaccare. “Obiettivi come carri armati o pezzi di artiglieria”, ha detto a BI.

Il passo successivo è trasferire tutte queste informazioni in un piano di targeting, associarle ad armi o piattaforme specifiche e quindi agire effettivamente in base al piano.

Ci vuole molto tempo e, nel caso di Israele, c’è probabilmente il desiderio di sviluppare molti obiettivi molto rapidamente, ha detto Paul Scharre. Gli esperti hanno espresso preoccupazione sull’accuratezza di questi programmi di targeting dell’intelligenza artificiale. Utilizzare una varietà di canali di informazione, come i social media e l’uso del telefono, per fissare i propri obiettivi.

Nel rapporto +972 Magazine and Local Calls, le fonti affermano che il tasso di precisione del 90% del programma è considerato accettabile. Il problema evidente è il restante 10%, che rappresenta un sacco di errori considerando la portata della guerra aerea israeliana e la sua significatività.

L’intelligenza artificiale impara continuamente, nel bene e nel male, e con ogni utilizzo questi programmi acquisiscono conoscenza ed esperienza che poi utilizzano per prendere decisioni future. Con un tasso di precisione del 90%, osserva il rapporto, l’apprendimento automatico di Lavender può migliorare le informazioni corrette e sbagliate uccidendo vite umane.

Consentire all’intelligenza artificiale di prendere decisioni in guerra

Le guerre future potrebbero vedere l’intelligenza artificiale lavorare a fianco degli esseri umani per elaborare enormi quantità di dati e suggerire potenziali linee d’azione nel vivo della battaglia, ma ci sono molte possibilità che potrebbero inasprire tale partnership.
I dati raccolti potrebbero essere troppi da elaborare o comprendere per gli esseri umani. Se un programma di intelligenza artificiale elabora enormi quantità di informazioni per preparare un elenco di potenziali obiettivi, potrebbe raggiungere un punto in cui gli esseri umani si sentiranno rapidamente sopraffatti e incapaci di contribuire in modo significativo al processo decisionale.

Esiste anche la possibilità di agire troppo rapidamente e fare ipotesi basate sui dati, aumentando la probabilità di errori, hanno scritto su tale questione nell’ottobre 2023 il consigliere militare e del gruppo armato del CICR Robin Stewart e il consigliere legale Georgia Hinds.

“Uno dei vantaggi militari dichiarati dell’intelligenza artificiale è l’aumento del ritmo decisionale che offre all’utente rispetto al suo avversario. Aumentare il ritmo spesso porta a rischi aggiuntivi per i civili, motivo per cui le tecnologie che riducono il ritmo, così come “pazienza tattica”, vengono utilizzati per ridurre le vittime civili.
Nel loro tentativo di muoversi rapidamente, gli umani possono togliere le mani dal volante e fidarsi ciecamente dell’intelligenza artificiale con poca supervisione, secondo il rapporto della rivista 972+ e Local Calls. Infatti gli obiettivi vengono esaminati dall’IA per soli 20 secondi, di solito solo per assicurarsi che l’aspirante assassino fosse maschio, prima di autorizzare il colpo.

Rapporti recenti sollevano seri interrogativi sulla misura in cui le persone sono “in loop” durante il processo decisionale. Secondo Singer, è anche “un possibile esempio di ciò che a volte è noto come ‘distorsione della macchina’”, una situazione in cui “un essere umano inganna se stesso facendogli credere che, poiché una macchina ha fornito la risposta, deve essere corretta”. Quindi, l’essere umano potrebbe alle lunghe non fare il suo lavoro e fidarsi ciecamente delle macchine.

A ottobre, il segretario generale delle Nazioni Unite António Guterres e il capo del Comitato internazionale della Croce Rossa, Mirjana Spoljaric, hanno lanciato un appello congiunto affinché gli eserciti “devono agire ora per mantenere il controllo umano sull’uso della forza” in combattimento.
“Il controllo umano sulle decisioni sulla vita e sulla morte deve essere mantenuto. La presa di mira degli esseri umani da parte delle macchine è una linea etica che non dobbiamo oltrepassare”, hanno affermato. “Il diritto internazionale deve vietare alle macchine capacità di uccidere senza l’intervento umano .”

L’altra faccia dell’intelligenza artificiale

Ma anche se ci sono dei rischi, l’intelligenza artificiale potrebbe avere molti vantaggi militari, come aiutare gli esseri umani a elaborare un’ampia gamma di dati e fonti per consentire loro di prendere decisioni informate, oltre a fornire una varietà di opzioni su come gestire le situazioni.

Una significativa collaborazione “human-in-the-loop” può essere vantaggiosa, ma alla fine spetta all’essere umano mantenere la fine di quella relazione. in altre parole, mantenere il potere e il controllo sull’intelligenza artificiale. Siamo padroni delle macchine, sia che si voli su un aereo, si guidi una nave o un carro armato, ma con molti di questi sistemi autonomi e nuovi algoritmi.

Molti eserciti non sono preparati per una simile trasformazione. Come hanno scritto Ryan e Clint Henot in un commento per War on the Rocks all’inizio di quest’anno, “Nel prossimo decennio, le imprese militari potrebbero realizzare una situazione in cui i sistemi senza pilota superano in numero gli esseri umani”.

“Attualmente, le tattiche, l’addestramento e i modelli di leadership delle organizzazioni militari sono progettati per istituzioni militari che sono principalmente umane, e questi umani esercitano uno stretto controllo sulle macchine”, hanno scritto.

“Cambiare l’istruzione e la formazione per preparare gli esseri umani a interagire con le macchine – e non solo a usarle – è un’evoluzione culturale necessaria ma difficile”, hanno affermato. Ma questo è ancora un lavoro in corso per molti militari.

Cosa ci riserverà il futuro? Difficile dirlo.

Sicuramente senza una corretta regolamentazione delle AI ad uso militare ci saranno molte più guerre per via del fatto che gli eserciti non saranno più faccia a faccia uno contro l’altro. Ma l’uso indiscriminato delle armi autonome porterà a molte vittime civili per via di quel 10% che abbiamo analizzato prima.

E il 10 per cento sono 10 vite umane innocenti perse vanamente per via di un bug del silicio.

  • #ai
  • ai war
  • guerra autonoma
  • ia
  • intelligena azrificiale
Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
MITRE pubblica la lista delle TOP25 debolezze software più pericolose del 2025
Di Redazione RHC - 13/12/2025

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Immagine del sito
Il Day-One del Caos di React2Shell! Spie, criminali e cryptominer si contendono i server
Di Redazione RHC - 13/12/2025

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

Immagine del sito
Agenzia delle Entrate: accesso admin in vendita a 500$? Ecco perché i conti non tornano
Di Vincenzo Miccoli - 13/12/2025

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

Immagine del sito
Apple aggiorna due bug 0day critici in iOS, presumibilmente abusati dagli spyware
Di Redazione RHC - 13/12/2025

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...

Immagine del sito
Esce Kali Linux 2025.4! Miglioramenti e Novità nella Distribuzione per la Sicurezza Informatica
Di Redazione RHC - 12/12/2025

La recente edizione 2025.4 di Kali Linux è stata messa a disposizione del pubblico, introducendo significative migliorie per quanto riguarda gli ambienti desktop GNOME, KDE e Xfce. D’ora in poi, Wa...