La settimana scorsa politici, leader tecnologici e ricercatori si sono incontrati nel Regno Unito per discutere dei rischi dell’intelligenza artificiale (AI). Il principale argomento di discussione è stata la possibilità di controllare l’uso dell’intelligenza artificiale per scopi militari.
Il 1° novembre, presso l’ambasciata americana a Londra, il vicepresidente americano Kamala Harris ha annunciato una serie di iniziative legate all’intelligenza artificiale. Ha espresso preoccupazione per le minacce che l’intelligenza artificiale potrebbe rappresentare per i diritti umani e i valori democratici.
Allo stesso tempo, Harris ha annunciato una dichiarazione firmata da 31 paesi che definisce il quadro per l’uso militare dell’intelligenza artificiale. Il documento chiede ai paesi firmatari di fornire normative e formazione per garantire che l’intelligenza artificiale militare rispetti le leggi internazionali. Inoltre chiede di sviluppare la tecnologia in modo attento e trasparente. Chiede inoltre di evitare pregiudizi indesiderati nei sistemi di intelligenza artificiale e di continuare le discussioni sullo sviluppo e l’applicazione responsabili della tecnologia.
La dichiarazione, sebbene non giuridicamente vincolante, è il primo grande accordo tra paesi sulle restrizioni volontarie all’IA militare. Lo stesso giorno, l’ONU ha annunciato una nuova risoluzione dell’Assemblea Generale. Viene chiesto uno studio dettagliato sulle armi autonome letali, che potrebbe portare a restrizioni su tali armi.
Lauren Kahn, ricercatrice senior presso il Center for Security and Emerging Technologies (CSET) della Georgetown University, definisce la dichiarazione degli Stati Uniti “estremamente significativa”. Ritiene che possa offrire un percorso pratico verso un accordo internazionale vincolante sugli standard per lo sviluppo, la sperimentazione e l’uso dell’intelligenza artificiale nei sistemi militari.
La dichiarazione è stata sviluppata per la prima volta dagli Stati Uniti a seguito di una conferenza tenutasi all’Aia a febbraio sull’uso militare dell’intelligenza artificiale. Gli Stati Uniti invitano anche gli altri paesi ad accettare che l’uomo debba mantenere il controllo delle armi nucleari. Il nuovo documento prevede un incontro dei paesi partecipanti all’inizio del 2024 per proseguire le discussioni.
Harris ha annunciato che la dichiarazione è stata ora firmata dai paesi alleati degli Stati Uniti, tra cui Regno Unito, Canada, Australia, Germania e Francia. Tra i 31 firmatari non figurano Cina e Russia che, insieme agli Stati Uniti, sono considerate leader nello sviluppo di armi autonome. Tuttavia, la Cina si è unita agli Stati Uniti nel firmare una dichiarazione sui rischi posti dall’intelligenza artificiale. Questo è avvenuto nell’ambito dell’AI Security Summit organizzato dal governo britannico.
il Primo Comitato dell’Assemblea generale delle Nazioni Unite, nel mentre ha approvato una nuova risoluzione sulle armi autonome. La risoluzione chiede un rapporto sulle questioni “umanitarie, legali, di sicurezza, tecnologiche ed etiche”. Tale rapporto analizzerà le armi autonome letali cercando un contributo delle organizzazioni internazionali e regionali.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…