Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

L’ex CEO di Google paragona l’IA alle armi nucleari

Redazione RHC : 26 Luglio 2022 15:47

  

L’ex CEO di Google Eric Schmidt ha paragonato l’IA alle armi nucleari e ha chiesto un regime per scoraggiare le nazioni più potenti del mondo dal distruggersi a vicenda.

Schmidt ha parlato dei pericoli dell’IA all’Aspen Security Forum del 22 luglio. Schmidt ha spiegato che lui stesso non si rendeva conto del potere delle informazioni nei primi giorni di Google. Ha quindi chiesto che la tecnologia fosse meglio allineata con l’etica e la moralità delle persone facendo confronti tra l’IA e le armi nucleari.

Secondo Schmidt, Cina e Stati Uniti devono consolidare l’accordo sull’intelligenza artificiale

“Sono molto preoccupato che gli Stati Uniti trattino la Cina come uno stato comunista corrotto e la Cina tratti gli Stati Uniti come dei ritardati. Questo fa riflettere le persone su ciò che questi paesi stanno complottando l’uno contro l’altro. Create un accordo tra di voi mentre vi armate. Non abbiamo nessuno che ci stia lavorando, ma l’IA è molto potente”.

L’intelligenza artificiale e l’apprendimento automatico sono tecnologie impressionanti e spesso fraintese. L’IA non è intelligente come pensano le persone. Può creare opere d’arte, prevedere crimini ed effettuare telefonate. 

Tuttavia, con compiti più complessi, ad esempio guidare un’auto in una grande città, l’intelligenza artificiale ancora non funziona bene.

Schmidt ha previsto che la Cina e gli Stati Uniti hanno problemi di sicurezza che li debbano far riflettere e concludere dei trattati di contenimento dell’IA, simile a un trattato di non proliferazione nucleare. 

Le due città giapponesi di Hiroshima e Nagasaki, distrutte dall’America alla fine della seconda guerra mondiale, hanno causato la morte di centinaia di migliaia di persone e hanno dimostrato al mondo l’orrore delle armi nucleari.

Al momento, esiste una dottrina militare di Mutual Assured Destruction (MAD). Questa teoria della deterrenza garantisce che se un paese lancia un’arma nucleare, lo fa anche ogni altro paese. Non usiamo le armi più distruttive del pianeta, poiché distruggeranno completamente l’intera civiltà.

Il problema con l’intelligenza artificiale è che riflette i valori dei suoi creatori. 

Gli algoritmi razzisti creano robot razzisti e un chatbot addestrato su 4chan diventa aggressivo e arrabbiato.

Demis Hassabis, CEO di DeepMind ritiene che le origini e i valori di un creatore di intelligenza artificiale siano di grande importanza. I sistemi di intelligenza artificiale impareranno da soli, ma il resto della cultura e dei valori dei creatori di questo sistema rimarrà nel sistema. 

L’IA è un riflesso del suo creatore. Non può distruggere una città con un attacco nucleare a meno che l’umano non insegni all’IA a farlo.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.