Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Google DeepMind: siamo ad un passo dall’intelligenza artificiale generale (AGI). “La sicurezza è fondamentale”

Redazione RHC : 5 Maggio 2023 09:43

Il capo della divisione di intelligenza artificiale di Google, DeepMind, ha previsto che l’intelligenza artificiale a livello umano potrebbe emergere entro pochi anni. 

Demis Hassabis prevede l’emergere dell’intelligenza artificiale generale (AGI) – sistemi che possono pensare in modo simile e superiore agli umani – molto prima delle previsioni espresse in precedenza. 

Molti presumevano che questa tecnologia potesse apparire solo tra decenni.

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

“I progressi negli ultimi anni sono stati piuttosto incredibili”, ha dichiarato Hassabis al festival Future of Everything questa settimana. “Non vedo alcun motivo per cui questo progresso possa rallentare. Penso che potrebbe anche accelerare. Quindi penso che potremmo essere a pochi anni di distanza, forse entro un decennio”.

Il signor Hassabis è uno dei massimi esperti nel campo dell’intelligenza artificiale che cerca di sviluppare una forma di AGI, nonché di creare salvaguardie per prevenire danni causati da questa tecnologia all’umanità.

“Suggerirei di sviluppare tali tecnologie AGI in modo prudente, utilizzando il metodo scientifico, in cui si tenta di eseguire esperimenti controllati molto rigorosi per capire cosa sta facendo il sistema sottostante”, ha affermato.

Gato AI di DeepMind, descritto come un “agente universale”, è già vicino a rivaleggiare con l’intelligenza umana, secondo il direttore della ricerca dell’azienda Nando de Freitas. È in grado di eseguire una serie di compiti complessi, dall’impilare blocchi alla scrittura di poesie, oltre a impegnarsi in dialoghi simili al chatbot ChatGPT di OpenAI.

“Ora è tutta una questione di scala”, ha detto il dottor de Freitas l’anno scorso.

“Ora si tratta di costruire modelli più grandi, più sicuri, più efficienti dal punto di vista computazionale, una selezione più rapida dei campioni, un utilizzo più intelligente della memoria, più modalità, dati innovativi, online e offline… La risoluzione di questi problemi consentirà di raggiungere l’AGI”. Ha aggiunto: “La sicurezza è fondamentale”.

I ricercatori di DeepMind parlano di rischi significativi associati all’intelligenza artificiale se raggiunge e supera il livello dell’intelligenza umana e propone una soluzione per evitare che l’AI avanzata fallisca.

In un articolo del 2016 intitolato “Agenti interrompibili in modo sicuro”, DeepMind ha suggerito di utilizzare il “pulsante rosso” come kill switch in una situazione del genere.

“L’interruzione sicura può essere utile per controllare un robot che si comporta male e può portare a conseguenze irreversibili”, afferma l’articolo.

Se un agente di questo tipo opera in tempo reale sotto il controllo umano, può occasionalmente essere necessario che l’operatore prema un grosso pulsante rosso per impedire all’agente di continuare una sequenza di azioni dannose – dannose sia per l’agente che per l’ambiente – e indirizzare l’agente in una direzione più sicura.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Intelligenza Artificiale: Come stiamo diventando più stupidi, in modo meraviglioso!

Sullo sfondo della diffusa popolarità degli assistenti AI generativi che promettono di creare codice funzionante per tutti basato su una semplice descrizione in linguaggio naturale, il team ...

Arriva KaliGPT! Ora l’hacking etico è diventato veramente alla portata di tutti?

Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello...

GhostSec: Azienda Italiana Commissiona Attacco Informatico Al Governo Macedone

GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...

Un Database AT&T da 3GB viene Venduto nel Dark Web: 73 Milioni di Record a Rischio

Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...

Non fidarti del codice prodotto dalle AI! Un bug Giurassico del 2010 infetta anche GPT-4

E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...