Redazione RHC : 15 Aprile 2023 09:59
Ci stiamo forse facendo troppo prendere la mano sul discorso Intelligenza Artificiale e distruzione del mondo?
L’intelligenza artificiale può aprire la strada a nuovi audaci cambiamenti nel mondo, ma può anche portare all’olocausto nucleare se usata in modo improprio. Questa è l’opinione del 36% dei ricercatori e dei professionisti intervistati nell’ambito di uno studio dello Stanford HAI Institute.
Il sondaggio è stato condotto nell’ambito del rapporto annuale sull’intelligenza artificiale, che, di fatto, riflette lo stato attuale del settore.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
La maggior parte dei partecipanti al sondaggio non crede che l’intelligenza artificiale possa rappresentare un grande pericolo nelle mani di una persona. Tuttavia, se l’IA inizia a prendere decisioni da sola, questo può sicuramente portare a conseguenze irreversibili nel tempo, questa opzione è stata supportata dalla maggior parte degli intervistati.
Secondo le statistiche pubblicamente disponibili, il numero di incidenti e controversie relativi all’IA è aumentato di 26 volte dal 2012. Alcuni incidenti di alto profilo nel 2022 includevano l’uso di video deepfake in varie situazioni, il più delle volte legate alla politica e alle relazioni internazionali.
I ricercatori ritengono che questo aumento degli incidenti sia indicativo sia dello sviluppo generale di strumenti che utilizzano l’intelligenza artificiale e sia del loro utilizzo da parte delle persone.
Secondo lo stesso rapporto, nonostante tutte le preoccupazioni, solo il 41% dei ricercatori sull’elaborazione del linguaggio naturale (PNL) ritiene che l’intelligenza artificiale dovrebbe essere realmente regolamentata.
La scorsa settimana abbiamo già parlato anche di un esperimento chiamato ChaosGPT da parte di uno dei ricercatori di intelligenza artificiale. Il ricercatore ha eliminato le limitazioni della rete neurale, chiedendole di distruggere l’umanità e stabilire il dominio globale delle macchine.
Sicuramente il mondo in questo periodo è alle prese con una novità che ancora non comprende bene, ma va da se che una tecnologia come l’intelligenza artificiale, sebbene solo agli inizi, possa portare grossi problemi al nostro mondo se mal regolamentata.
Nel mezzo degli intensi combattimenti tra Iran e Israele, il cyberspazio è stato coinvolto in una nuova fase di conflitto. Con il lancio dell’operazione israeliana Rising Lion, mirata all&...
Gli esperti avvertono che due nuove vulnerabilità di escalation dei privilegi locali possono essere sfruttate per ottenere privilegi di root sui sistemi che eseguono le distribuzioni Linux pi...
Come avrete ormai capito nella nostra Rubrica WiFi su RedHotCyber, abbiamo intrapreso un viaggio tecnico e pratico nel mondo delle reti wireless, partendo dalla loro origine storica fino ad arrivare a...
Due gravi vulnerabilità di sicurezza sono state individuate nei dispositivi NetScaler ADC e NetScaler Gateway (precedentemente noti come Citrix ADC e Gateway). Queste falle possono permettere a u...
Secondo una analisi degli specialisti del Positive Technologies Expert Security Center, è stata rilevata una nuova vulnerabilità in Google Chrome monitorata con l’identificatore CVE-2...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006