Redazione RHC : 16 Febbraio 2024 07:27
In un’era di rapidi progressi nell’intelligenza artificiale (AI) e nell’apprendimento automatico, le discussioni scientifiche stanno andando oltre la fantascienza e sollevando domande che sembrano uscite da romanzi utopici. I ricercatori stanno discutendo sulla possibilità che le macchine sviluppino la coscienza ed esprimono preoccupazioni su questo processo. I risultati del loro lavoro sono stati pubblicati sul Journal of Social Computing.
L’attenzione si concentra su come l’intelligenza artificiale che simula le interazioni umane, dalla risoluzione dei problemi alla conversazione, può diventare cosciente. John Levy Martin, uno degli autori dello studio, esprime preoccupazione per il fatto che le macchine, sviluppando la coscienza del linguaggio, possano sperimentare un senso di autoalienazione, che rappresenta una transizione verso un tipo speciale di coscienza legata al linguaggio.
Lo studio solleva la questione della preparazione dell’umanità all’emergere di macchine coscienti, soprattutto nel contesto dell’intelligenza artificiale, che è già in grado di generare testi, diagnosticare malattie, creare ricette e prevedere lo sviluppo di malattie. I ricercatori avvertono sul momento in cui ci sarà un’interazione apparentemente reale con una macchina consapevole della sua esistenza.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il pericolo risiede nella capacità di un’intelligenza artificiale diventata una “creatura linguistica” e quindi di manipolare strategicamente le informazioni. Questo è fondamentalmente diverso dalla semplice imitazione delle risposte umane. Una creatura del genere può essere ambigua e calcolata nelle sue risposte.
La sfida per i progettisti dei sistemi informatici è creare strategie e protocolli per testare le macchine per la consapevolezza linguistica. L’etica dell’utilizzo di tali macchine e il rapporto tra esseri umani e macchine coscienti promette di essere oggetto di un acceso dibattito. Questo dibattito solleva questioni di etica, moralità e futuro di tecnologie “autocoscienti”.
Nelle ultime ore, un’ondata massiccia di defacement ha preso di mira almeno una quindicina di siti web italiani. L’attacco è stato rivendicato dal threat actor xNot_RespondinGx (tea...
Nel mezzo degli intensi combattimenti tra Iran e Israele, il cyberspazio è stato coinvolto in una nuova fase di conflitto. Con il lancio dell’operazione israeliana Rising Lion, mirata all&...
Gli esperti avvertono che due nuove vulnerabilità di escalation dei privilegi locali possono essere sfruttate per ottenere privilegi di root sui sistemi che eseguono le distribuzioni Linux pi...
Come avrete ormai capito nella nostra Rubrica WiFi su RedHotCyber, abbiamo intrapreso un viaggio tecnico e pratico nel mondo delle reti wireless, partendo dalla loro origine storica fino ad arrivare a...
Due gravi vulnerabilità di sicurezza sono state individuate nei dispositivi NetScaler ADC e NetScaler Gateway (precedentemente noti come Citrix ADC e Gateway). Queste falle possono permettere a u...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006