Redazione RHC : 12 Ottobre 2024 12:34
Geoffrey Hinton, noto come uno dei pionieri dell’intelligenza artificiale (IA), ha suscitato grande interesse quando ha lasciato Google e ha espresso preoccupazioni crescenti riguardo ai rischi dell’IA avanzata. Secondo Hinton, la rapida evoluzione dell’IA potrebbe portare a conseguenze imprevedibili e pericolose. Dopo decenni di lavoro nel campo, incluso lo sviluppo di tecnologie cruciali come le reti neurali, Hinton ha messo in guardia sul potenziale di IA più potenti degli esseri umani, che potrebbero diventare incontrollabili o essere utilizzate per scopi dannosi.
Hinton ha lasciato Google non solo per poter parlare liberamente, ma anche per distanziarsi da un’industria che, a suo avviso, si muove verso lo sviluppo di IA superintelligenti senza avere una chiara comprensione dei rischi associati. Ha sottolineato che, sebbene l’IA abbia già portato enormi benefici, il suo uso senza regole adeguate potrebbe alterare significativamente la società, il mercato del lavoro e la politica globale.
Le sue dichiarazioni sono particolarmente rilevanti in un momento in cui giganti tecnologici come Google, OpenAI e altre aziende investono miliardi nello sviluppo di IA sempre più avanzate. Hinton teme che una corsa sfrenata alla supremazia tecnologica possa farci perdere di vista l’importanza di regolamentare queste innovazioni.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
La questione sollevata da Hinton non è solo tecnologica, ma anche etica. Invita i governi e le istituzioni a intervenire rapidamente per stabilire regolamentazioni che impediscano l’uso dell’IA per attività pericolose o incontrollabili. L’uso dell’IA in settori come la guerra, la sorveglianza e la manipolazione dell’opinione pubblica rappresenta uno dei principali timori espressi dallo scienziato.
Il messaggio finale di Hinton è chiaro: la strada verso l’intelligenza artificiale deve essere percorsa con grande cautela e responsabilità, con la consapevolezza che le decisioni prese oggi influenzeranno il futuro della civiltà umana.
Nel mondo del cybercrime moderno, dove le frontiere tra criminalità e imprenditoria si fanno sempre più sfumate, il gruppo ransomware LockBit rappresenta un caso di studio affascinante. Atti...
Microsoft 365 Copilot è uno strumento di intelligenza artificiale integrato in applicazioni Office come Word, Excel, Outlook, PowerPoint e Teams. I ricercatori hanno recentemente scoperto che lo ...
Una vulnerabilità di sicurezza critica nei Servizi Desktop remoto di Windows, monitorata con il codice CVE-2025-32710, consente ad aggressori non autorizzati di eseguire codice arbitrario in...
Ghost Security, noto anche come GhostSec, è un gruppo hacktivista emerso nel contesto della guerra cibernetica contro l’estremismo islamico. Le sue prime azioni risalgono alla fase success...
Gli analisti di Cisco Talos hanno segnalato che le infrastrutture critiche in Ucraina sono state attaccate da un nuovo malware che distrugge i dati chiamato PathWiper. I ricercatori scrivono...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006