Red Hot Cyber

Sicurezza informatica, cybercrime, hack
news, e altro ancora
  • English

L’ex CEO di Google paragona l’IA alle armi nucleari

L’ex CEO di Google Eric Schmidt ha paragonato l’IA alle armi nucleari e ha chiesto un regime per scoraggiare le nazioni più potenti del mondo dal distruggersi a vicenda.

Schmidt ha parlato dei pericoli dell’IA all’Aspen Security Forum del 22 luglio. Schmidt ha spiegato che lui stesso non si rendeva conto del potere delle informazioni nei primi giorni di Google. Ha quindi chiesto che la tecnologia fosse meglio allineata con l’etica e la moralità delle persone facendo confronti tra l’IA e le armi nucleari.

Secondo Schmidt, Cina e Stati Uniti devono consolidare l’accordo sull’intelligenza artificiale

“Sono molto preoccupato che gli Stati Uniti trattino la Cina come uno stato comunista corrotto e la Cina tratti gli Stati Uniti come dei ritardati. Questo fa riflettere le persone su ciò che questi paesi stanno complottando l’uno contro l’altro. Create un accordo tra di voi mentre vi armate. Non abbiamo nessuno che ci stia lavorando, ma l’IA è molto potente”.

L’intelligenza artificiale e l’apprendimento automatico sono tecnologie impressionanti e spesso fraintese. L’IA non è intelligente come pensano le persone. Può creare opere d’arte, prevedere crimini ed effettuare telefonate. 

Advertisements

Tuttavia, con compiti più complessi, ad esempio guidare un’auto in una grande città, l’intelligenza artificiale ancora non funziona bene.

Schmidt ha previsto che la Cina e gli Stati Uniti hanno problemi di sicurezza che li debbano far riflettere e concludere dei trattati di contenimento dell’IA, simile a un trattato di non proliferazione nucleare. 

Le due città giapponesi di Hiroshima e Nagasaki, distrutte dall’America alla fine della seconda guerra mondiale, hanno causato la morte di centinaia di migliaia di persone e hanno dimostrato al mondo l’orrore delle armi nucleari.

Al momento, esiste una dottrina militare di Mutual Assured Destruction (MAD). Questa teoria della deterrenza garantisce che se un paese lancia un’arma nucleare, lo fa anche ogni altro paese. Non usiamo le armi più distruttive del pianeta, poiché distruggeranno completamente l’intera civiltà.

Advertisements

Il problema con l’intelligenza artificiale è che riflette i valori dei suoi creatori. 

Gli algoritmi razzisti creano robot razzisti e un chatbot addestrato su 4chan diventa aggressivo e arrabbiato.

Demis Hassabis, CEO di DeepMind ritiene che le origini e i valori di un creatore di intelligenza artificiale siano di grande importanza. I sistemi di intelligenza artificiale impareranno da soli, ma il resto della cultura e dei valori dei creatori di questo sistema rimarrà nel sistema. 

L’IA è un riflesso del suo creatore. Non può distruggere una città con un attacco nucleare a meno che l’umano non insegni all’IA a farlo.