L’ex CEO di Google Eric Schmidt ha paragonato l’IA alle armi nucleari e ha chiesto un regime per scoraggiare le nazioni più potenti del mondo dal distruggersi a vicenda.
Schmidt ha parlato dei pericoli dell’IA all’Aspen Security Forum del 22 luglio. Schmidt ha spiegato che lui stesso non si rendeva conto del potere delle informazioni nei primi giorni di Google. Ha quindi chiesto che la tecnologia fosse meglio allineata con l’etica e la moralità delle persone facendo confronti tra l’IA e le armi nucleari.
Cybersecurity Awareness efficace? Scopri BETTI RHC! Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Red hot cyber ha sviluppato da diversi anni una Graphic Novel (giunta al sesto episodio), l'unica nel suo genere nel mondo, che consente di formare i dipendenti sulla sicurezza informatica attraverso la lettura di un fumetto. Contattaci tramite WhatsApp al numero 375 593 1011 per saperne di più e richiedere informazioni oppure alla casella di posta graphicnovel@redhotcyber.com
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Secondo Schmidt, Cina e Stati Uniti devono consolidare l’accordo sull’intelligenza artificiale.
“Sono molto preoccupato che gli Stati Uniti trattino la Cina come uno stato comunista corrotto e la Cina tratti gli Stati Uniti come dei ritardati. Questo fa riflettere le persone su ciò che questi paesi stanno complottando l’uno contro l’altro. Create un accordo tra di voi mentre vi armate. Non abbiamo nessuno che ci stia lavorando, ma l’IA è molto potente”.
L’intelligenza artificiale e l’apprendimento automatico sono tecnologie impressionanti e spesso fraintese. L’IA non è intelligente come pensano le persone. Può creare opere d’arte, prevedere crimini ed effettuare telefonate.
Tuttavia, con compiti più complessi, ad esempio guidare un’auto in una grande città, l’intelligenza artificiale ancora non funziona bene.
Schmidt ha previsto che la Cina e gli Stati Uniti hanno problemi di sicurezza che li debbano far riflettere e concludere dei trattati di contenimento dell’IA, simile a un trattato di non proliferazione nucleare.
Le due città giapponesi di Hiroshima e Nagasaki, distrutte dall’America alla fine della seconda guerra mondiale, hanno causato la morte di centinaia di migliaia di persone e hanno dimostrato al mondo l’orrore delle armi nucleari.
Al momento, esiste una dottrina militare di Mutual Assured Destruction (MAD). Questa teoria della deterrenza garantisce che se un paese lancia un’arma nucleare, lo fa anche ogni altro paese. Non usiamo le armi più distruttive del pianeta, poiché distruggeranno completamente l’intera civiltà.
Il problema con l’intelligenza artificiale è che riflette i valori dei suoi creatori.
Gli algoritmi razzisti creano robot razzisti e un chatbot addestrato su 4chan diventa aggressivo e arrabbiato.
Demis Hassabis, CEO di DeepMind ritiene che le origini e i valori di un creatore di intelligenza artificiale siano di grande importanza. I sistemi di intelligenza artificiale impareranno da soli, ma il resto della cultura e dei valori dei creatori di questo sistema rimarrà nel sistema.
L’IA è un riflesso del suo creatore. Non può distruggere una città con un attacco nucleare a meno che l’umano non insegni all’IA a farlo.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
