
In un’era di rapidi progressi nell’intelligenza artificiale (AI) e nell’apprendimento automatico, le discussioni scientifiche stanno andando oltre la fantascienza e sollevando domande che sembrano uscite da romanzi utopici. I ricercatori stanno discutendo sulla possibilità che le macchine sviluppino la coscienza ed esprimono preoccupazioni su questo processo. I risultati del loro lavoro sono stati pubblicati sul Journal of Social Computing.
L’attenzione si concentra su come l’intelligenza artificiale che simula le interazioni umane, dalla risoluzione dei problemi alla conversazione, può diventare cosciente. John Levy Martin, uno degli autori dello studio, esprime preoccupazione per il fatto che le macchine, sviluppando la coscienza del linguaggio, possano sperimentare un senso di autoalienazione, che rappresenta una transizione verso un tipo speciale di coscienza legata al linguaggio.
Lo studio solleva la questione della preparazione dell’umanità all’emergere di macchine coscienti, soprattutto nel contesto dell’intelligenza artificiale, che è già in grado di generare testi, diagnosticare malattie, creare ricette e prevedere lo sviluppo di malattie. I ricercatori avvertono sul momento in cui ci sarà un’interazione apparentemente reale con una macchina consapevole della sua esistenza.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Il pericolo risiede nella capacità di un’intelligenza artificiale diventata una “creatura linguistica” e quindi di manipolare strategicamente le informazioni. Questo è fondamentalmente diverso dalla semplice imitazione delle risposte umane. Una creatura del genere può essere ambigua e calcolata nelle sue risposte.
La sfida per i progettisti dei sistemi informatici è creare strategie e protocolli per testare le macchine per la consapevolezza linguistica. L’etica dell’utilizzo di tali macchine e il rapporto tra esseri umani e macchine coscienti promette di essere oggetto di un acceso dibattito. Questo dibattito solleva questioni di etica, moralità e futuro di tecnologie “autocoscienti”.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CyberpoliticaIl CEO di Cloudflare, Matthew Prince, ha minacciato di chiudere le attività dell’azienda in Italia dopo che l’autorità di regolamentazione delle telecomunicazioni del Paese le ha imposto una multa pari al doppio del suo fatturato…
CybercrimeUn’analisi approfondita sulle connessioni infrastrutturali del gruppo emergente Orion Leaks e il suo possibile legame con l’ex gigante LockBit RaaS. Negli ultimi mesi, a seguito dell’Operazione Cronos, condotta da agenzie internazionali per smantellare l’infrastruttura e…
CybercrimeNegli ultimi mesi si sta parlando sempre più spesso di un cambio di paradigma nel cybercrime. Quello che per anni è stato percepito come un ecosistema prevalentemente digitale — fatto di frodi, furti di identità,…
CybercrimeA volte, per disattivare la protezione di Windows non è necessario attaccare direttamente l’antivirus. È sufficiente impedirne il corretto avvio. Un ricercatore che si fa chiamare Two Seven One Three (TwoSevenOneT) ha pubblicato su GitHub…
CulturaQuando la sicurezza fallisce prima ancora dell’errore Questo testo nasce dall’esperienza diretta, maturata osservando nel tempo numerosi casi di frodi e incidenti informatici, in cui il fattore umano nella sicurezza è stato l’elemento che ha…