Redazione RHC : 3 Giugno 2023 08:51
L’Air Force rettifica il tiro e riporta che un colonnello dell’aeronautica americana ha “parlato male“, descrivendo un esperimento in cui un drone abilitato all’intelligenza artificiale ha scelto di attaccare il suo operatore per completare la sua missione.
Il colonnello Tucker Hamilton, capo dei test e delle operazioni di intelligenza artificiale dell’aeronautica americana, stava parlando a una conferenza organizzata dalla Royal Aeronautical Society riportando del fatto accaduto.
L’Air Force ha subito dopo affermato – dopo che diverse testate hanno spinto l’articolo facendolo divenire virale – che nessun esperimento del genere ha avuto mai luogo.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Nel suo discorso, aveva descritto una simulazione in cui a un drone armato munito di intelligenza artificiale, gli veniva ripetutamente impedito di completare il suo compito di distruggere i siti missilistici terra-aria dal suo operatore umano.
Ha detto che alla fine, nonostante fosse stato addestrato a non uccidere l’operatore, il drone distrusse la torre di comunicazione in modo che l’operatore non potesse più comunicare con essa.
“Non abbiamo mai eseguito quell’esperimento, né ne avremmo bisogno per renderci conto che si tratta di un risultato plausibile“, ha successivamente chiarito il colonnello Hamilton in una dichiarazione alla Royal Aeronautical Society.
Ha aggiunto che si trattava di un “esperimento mentale” piuttosto che di qualsiasi cosa avesse effettivamente avuto luogo.
Ci sono stati una serie di avvertimenti sulla minaccia per l’umanità rappresentata dall’intelligenza artificiale lanciati di recente da persone che lavorano nel settore, anche se non tutti gli esperti concordano sulla gravità del rischio.
Ma ora torniamo a noi. Se si sia trattato di insabbiare o meno le rivelazioni precedentemente fatte, va da sé che ci troviamo di fronte ad uno snodo focale relativo alla tecnologia digitale.
Casi di questo tipo avverranno in futuro e ne avverranno tanti, quanti già ne avvengono oggi quando una AI riconosce un cane al posto di una Orso e ci fa tanto sorridere.
Le AI saranno alla base del nostro mondo futuro che è alle porte, dove tutto sarà connesso e ogni pericolo per le nostre vite potrà arrivare da dietro ogni angolo.
Pertanto occorre lavorare per fare in modo che questa tecnologia venga fortemente normalizzata e regolamentata. Anche se sappiamo che dopo tutto, siamo esseri umani dove la stragrande maggioranza degli individui pensa al guadagno personale e non all’etica e ad un interesse comune.
Un ricercatore esperto in sicurezza informatica ha scoperto che centinaia di server TeslaMate in tutto il mondo trasmettono apertamente i dati dei veicoli Tesla senza alcuna protezione. Ciò signi...
Il 23 luglio 2025, Tesla tenne la sua conference call sui risultati del secondo trimestre. Elon Musk , come di consueto, trasmise a Wall Street il suo contagioso ottimismo. Parlando di Dojo, il superc...
Microsoft rimuoverà PowerShell 2.0 da Windows a partire da agosto, anni dopo averne annunciato la dismissione e averlo mantenuto come funzionalità opzionale. Il processore dei comandi vecchi...
Sviluppare agenti di intelligenza artificiale in grado di individuare vulnerabilità in sistemi complessi è ancora un compito impegnativo che richiede molto lavoro manuale. Tuttavia, tali age...
L’azienda cinese Kaiwa Technology, con sede a Guangzhou, ha annunciato l’intenzione di creare il primo “utero robotico” al mondo entro il 2026: una macchina umanoide con un...