Sandro Sana : 20 Dicembre 2024 11:09
Negli ultimi anni, l’utilizzo dell’intelligenza artificiale (AI) nei conflitti armati ha aperto scenari inediti e profondamente controversi. Una delle più recenti e discusse applicazioni riguarda l’esercito israeliano (IDF) e l’uso del sistema di intelligenza artificiale noto come “Lavender” nelle operazioni militari nella Striscia di Gaza. Questa tecnologia avanzata è stata impiegata per identificare e selezionare obiettivi da colpire durante i bombardamenti, ma la sua implementazione ha sollevato numerose critiche e preoccupazioni per le implicazioni etiche, legali e umanitarie.
Secondo un’inchiesta approfondita pubblicata da +972 Magazine, Lavender è un sofisticato algoritmo progettato per analizzare una grande quantità di dati di intelligence e identificare automaticamente sospetti militanti palestinesi. Lavender è stato sviluppato come parte del programma di modernizzazione dell’IDF, con l’obiettivo di migliorare l’efficacia delle operazioni militari attraverso l’uso dell’intelligenza artificiale predittiva. L’algoritmo si basa su enormi set di dati di intelligence raccolti da fonti diverse, tra cui:
L’IDF ha implementato questo sistema per velocizzare e automatizzare il processo di identificazione dei sospetti militanti e dei loro presunti nascondigli. Durante i conflitti recenti, in particolare nell’offensiva a Gaza del 2021, Lavender è stato utilizzato per individuare e colpire obiettivi con una rapidità e un’efficienza senza precedenti.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Lavender elabora grandi quantità di dati attraverso machine learning e algoritmi di analisi predittiva. Il sistema identifica comportamenti e modelli di attività che, secondo i criteri predefiniti dall’IDF, sono associati ai militanti di Hamas e di altre fazioni armate.
Il processo decisionale funziona in questo modo:
Durante il conflitto a Gaza, il sistema Lavender ha identificato circa 37.000 potenziali obiettivi. Questo numero impressionante suggerisce che il processo decisionale è stato automatizzato a un livello mai visto prima. Mentre il sistema è stato progettato per “assistere” gli ufficiali dell’IDF, le decisioni venivano spesso convalidate quasi automaticamente, lasciando poco spazio alla verifica umana approfondita. In molti casi, un bersaglio veniva approvato per un bombardamento in meno di un minuto.
Nonostante l’intento dichiarato di migliorare l’accuratezza e ridurre gli errori umani, Lavender non è privo di difetti. Secondo l’inchiesta di +972 Magazine, l’intervento umano nel processo decisionale è spesso minimo. Una volta che l’AI identifica un obiettivo, il tempo a disposizione degli ufficiali per eseguire una verifica è estremamente ridotto, spesso meno di un minuto.
L’adozione di Lavender ha permesso all’IDF di agire con una rapidità senza precedenti. Tuttavia, questa velocità ha comportato una serie di rischi significativi. Gli attacchi aerei spesso colpivano abitazioni private mentre i sospetti si trovavano con le loro famiglie, portando a un alto numero di vittime civili. Secondo i resoconti, in alcuni casi l’AI si è basata su dati incompleti o errati, portando a errori di identificazione con conseguenze tragiche.
Il tasso di errore stimato per Lavender è del 10%. Anche se questa percentuale può sembrare bassa in termini statistici, applicata a decine di migliaia di bersagli può tradursi in centinaia, se non migliaia, di vite umane perse a causa di errori dell’AI.
Il diritto internazionale umanitario stabilisce principi fondamentali per la conduzione delle guerre, come la distinzione tra combattenti e civili e la proporzionalità nell’uso della forza. L’uso di un sistema AI come Lavender, con controllo umano limitato, mette a rischio il rispetto di questi principi. Bombardamenti basati su identificazioni automatizzate possono portare a violazioni delle Convenzioni di Ginevra, che richiedono di prendere tutte le precauzioni possibili per proteggere i civili.
Organizzazioni per i diritti umani, come Human Rights Watch e Amnesty International, hanno espresso profonda preoccupazione per l’impiego di queste tecnologie. La capacità dell’AI di agire senza una supervisione adeguata rappresenta una minaccia per il diritto alla vita e può costituire una forma di “giustizia sommaria” tecnologicamente avanzata ma eticamente discutibile.
L’uso dell’AI nei conflitti non è un’esclusiva dell’IDF. Anche in Ucraina, durante l’invasione russa, sono state utilizzate tecnologie di intelligenza artificiale per ottimizzare la difesa e identificare obiettivi nemici. Tuttavia, il caso di Lavender si distingue per l’ampiezza del suo utilizzo e la velocità decisionale. Mentre in Ucraina l’AI viene usata principalmente per scopi difensivi, nel contesto di Gaza è stata impiegata in una campagna di bombardamenti offensivi su larga scala.
Questa distinzione solleva interrogativi su come l’AI possa essere regolamentata nei conflitti futuri e quale sia il limite etico per l’automazione delle decisioni militari.
La crescente dipendenza da sistemi di AI nei conflitti moderni potrebbe alterare radicalmente le modalità con cui vengono condotte le guerre. Gli esperti avvertono che una progressiva automazione delle decisioni belliche potrebbe portare a un “disimpegno morale” da parte degli esseri umani coinvolti, riducendo la percezione delle conseguenze delle azioni militari.
Inoltre, l’assenza di una regolamentazione internazionale chiara sull’uso dell’AI nei conflitti potrebbe creare un precedente pericoloso, incentivando una corsa agli armamenti tecnologici senza controlli adeguati. Senza linee guida rigorose, il rischio di abusi e violazioni dei diritti umani è destinato ad aumentare.
Il caso di Lavender rappresenta un campanello d’allarme per la comunità internazionale. L’adozione dell’intelligenza artificiale nei conflitti richiede una riflessione profonda e l’implementazione di normative rigorose per garantire che queste tecnologie siano utilizzate in modo etico e responsabile. Il futuro della guerra automatizzata è già una realtà, e il mondo deve affrontare questa sfida con la massima attenzione per evitare un’ulteriore escalation di violazioni dei diritti umani e di sofferenze civili.
Avevamo già parlato della proposta di regolamento “ChatControl” quasi due anni fa, ma vista la roadmap che è in atto ci troviamo nell’imbarazzo di doverne parlare nuovamente. Sembra però un d...
ShinyHunters è un gruppo noto per il coinvolgimento in diversi attacchi informatici di alto profilo. Formatosi intorno al 2020, il gruppo ha guadagnato notorietà attraverso una serie di attacchi mir...
La notizia è semplice, la tecnologia no. Chat Control (CSAR) nasce per scovare CSAM e dinamiche di grooming dentro le piattaforme di messaggistica. La versione “modernizzata” rinuncia alla backdo...
A cura di Luca Stivali e Olivia Terragni. L’11 settembre 2025 è esploso mediaticamente, in modo massivo e massiccio, quello che può essere definito il più grande leak mai subito dal Great Fir...
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...