
Ci stiamo forse facendo troppo prendere la mano sul discorso Intelligenza Artificiale e distruzione del mondo?
L’intelligenza artificiale può aprire la strada a nuovi audaci cambiamenti nel mondo, ma può anche portare all’olocausto nucleare se usata in modo improprio. Questa è l’opinione del 36% dei ricercatori e dei professionisti intervistati nell’ambito di uno studio dello Stanford HAI Institute.
Il sondaggio è stato condotto nell’ambito del rapporto annuale sull’intelligenza artificiale, che, di fatto, riflette lo stato attuale del settore.

Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La maggior parte dei partecipanti al sondaggio non crede che l’intelligenza artificiale possa rappresentare un grande pericolo nelle mani di una persona. Tuttavia, se l’IA inizia a prendere decisioni da sola, questo può sicuramente portare a conseguenze irreversibili nel tempo, questa opzione è stata supportata dalla maggior parte degli intervistati.
Secondo le statistiche pubblicamente disponibili, il numero di incidenti e controversie relativi all’IA è aumentato di 26 volte dal 2012. Alcuni incidenti di alto profilo nel 2022 includevano l’uso di video deepfake in varie situazioni, il più delle volte legate alla politica e alle relazioni internazionali.
I ricercatori ritengono che questo aumento degli incidenti sia indicativo sia dello sviluppo generale di strumenti che utilizzano l’intelligenza artificiale e sia del loro utilizzo da parte delle persone.
Secondo lo stesso rapporto, nonostante tutte le preoccupazioni, solo il 41% dei ricercatori sull’elaborazione del linguaggio naturale (PNL) ritiene che l’intelligenza artificiale dovrebbe essere realmente regolamentata.
La scorsa settimana abbiamo già parlato anche di un esperimento chiamato ChaosGPT da parte di uno dei ricercatori di intelligenza artificiale. Il ricercatore ha eliminato le limitazioni della rete neurale, chiedendole di distruggere l’umanità e stabilire il dominio globale delle macchine.
Sicuramente il mondo in questo periodo è alle prese con una novità che ancora non comprende bene, ma va da se che una tecnologia come l’intelligenza artificiale, sebbene solo agli inizi, possa portare grossi problemi al nostro mondo se mal regolamentata.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.


Dopo aver approfondito i delicati equilibri che vincolano gli operatori di Cyber Threat Intelligence(CTI) tra il GDPR e il rischio di Ricettazione, è fondamentale rivolgere l’attenzione a chiunque,...

Il mondo della tecnologia è un vero e proprio campo di battaglia, dove i geni del coding sfidano ogni giorno i malintenzionati a colpi di exploit e patch di sicurezza. Ecco perché la recente scopert...

Questa notizia ci arriva dal feed News & Research di Recorded Future (Insikt Group): Check Point Research ha documentato una nuova ondata di attività attribuita al threat actor China-linked Ink D...

La cultura del “tanto chi vuoi che mi attacchi?” gira ancora, testarda. Non è uno slogan, è proprio un modo di pensare. Una specie di alibi mentale che permette di rimandare, di non guardare tro...

La sicurezza informatica è un tema che non scherza, specialmente quando si parla di vulnerabilità che possono compromettere l’intero sistema. Ebbene, Hewlett Packard Enterprise (HPE) ha appena lan...