
L’ex CEO di Google Eric Schmidt ha paragonato l’IA alle armi nucleari e ha chiesto un regime per scoraggiare le nazioni più potenti del mondo dal distruggersi a vicenda.
Schmidt ha parlato dei pericoli dell’IA all’Aspen Security Forum del 22 luglio. Schmidt ha spiegato che lui stesso non si rendeva conto del potere delle informazioni nei primi giorni di Google. Ha quindi chiesto che la tecnologia fosse meglio allineata con l’etica e la moralità delle persone facendo confronti tra l’IA e le armi nucleari.
Secondo Schmidt, Cina e Stati Uniti devono consolidare l’accordo sull’intelligenza artificiale.
“Sono molto preoccupato che gli Stati Uniti trattino la Cina come uno stato comunista corrotto e la Cina tratti gli Stati Uniti come dei ritardati. Questo fa riflettere le persone su ciò che questi paesi stanno complottando l’uno contro l’altro. Create un accordo tra di voi mentre vi armate. Non abbiamo nessuno che ci stia lavorando, ma l’IA è molto potente”.
L’intelligenza artificiale e l’apprendimento automatico sono tecnologie impressionanti e spesso fraintese. L’IA non è intelligente come pensano le persone. Può creare opere d’arte, prevedere crimini ed effettuare telefonate.
Tuttavia, con compiti più complessi, ad esempio guidare un’auto in una grande città, l’intelligenza artificiale ancora non funziona bene.
Schmidt ha previsto che la Cina e gli Stati Uniti hanno problemi di sicurezza che li debbano far riflettere e concludere dei trattati di contenimento dell’IA, simile a un trattato di non proliferazione nucleare.
Le due città giapponesi di Hiroshima e Nagasaki, distrutte dall’America alla fine della seconda guerra mondiale, hanno causato la morte di centinaia di migliaia di persone e hanno dimostrato al mondo l’orrore delle armi nucleari.
Al momento, esiste una dottrina militare di Mutual Assured Destruction (MAD). Questa teoria della deterrenza garantisce che se un paese lancia un’arma nucleare, lo fa anche ogni altro paese. Non usiamo le armi più distruttive del pianeta, poiché distruggeranno completamente l’intera civiltà.
Il problema con l’intelligenza artificiale è che riflette i valori dei suoi creatori.
Gli algoritmi razzisti creano robot razzisti e un chatbot addestrato su 4chan diventa aggressivo e arrabbiato.
Demis Hassabis, CEO di DeepMind ritiene che le origini e i valori di un creatore di intelligenza artificiale siano di grande importanza. I sistemi di intelligenza artificiale impareranno da soli, ma il resto della cultura e dei valori dei creatori di questo sistema rimarrà nel sistema.
L’IA è un riflesso del suo creatore. Non può distruggere una città con un attacco nucleare a meno che l’umano non insegni all’IA a farlo.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsL’Italia è finita ancora una volta nel mirino del collettivo hacktivista filorusso NoName057(16). Dopo i pesanti disservizi che hanno colpito l‘Università La Sapienza e le Gallerie degli Uffizi all’inizio di questa settimana. L’offensiva digitale russa…
Cyber NewsSecondo quanto riportato dal Corriere della Sera, l’attacco informatico che ha paralizzato i sistemi dell’Università La Sapienza non sarebbe motivato da fini politici. Gli hacker avrebbero inviato messaggi di rivendicazione spiegando di non agire per…
CybercrimeNella cyber security, spesso ci si concentra sulla ricerca di complessi bug nel codice sorgente, ignorando che la fiducia dell’utente finale passa per un elemento molto più semplice: un link di download. L’incidente che ha…
Cyber NewsNella giornata di lunedì mattina, un grave incidente informatico ha colpito l’Università La Sapienza di Roma, mettendo fuori uso una parte rilevante dell’infrastruttura digitale dell’ateneo. L’attacco ha avuto effetti immediati sulla didattica e sui servizi…
InnovazioneL’evoluzione delle piattaforme digitali ha raggiunto un punto di rottura dove la presenza umana non è più richiesta per alimentare il dibattito. Moltbook emerge come un esperimento sociale senza precedenti, un ecosistema dove milioni di…