Redazione RHC : 26 Luglio 2022 15:47
L’ex CEO di Google Eric Schmidt ha paragonato l’IA alle armi nucleari e ha chiesto un regime per scoraggiare le nazioni più potenti del mondo dal distruggersi a vicenda.
Schmidt ha parlato dei pericoli dell’IA all’Aspen Security Forum del 22 luglio. Schmidt ha spiegato che lui stesso non si rendeva conto del potere delle informazioni nei primi giorni di Google. Ha quindi chiesto che la tecnologia fosse meglio allineata con l’etica e la moralità delle persone facendo confronti tra l’IA e le armi nucleari.
Secondo Schmidt, Cina e Stati Uniti devono consolidare l’accordo sull’intelligenza artificiale.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Supporta RHC attraverso:
- L'acquisto del fumetto sul Cybersecurity Awareness
- Ascoltando i nostri Podcast
- Seguendo RHC su WhatsApp
- Seguendo RHC su Telegram
- Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
“Sono molto preoccupato che gli Stati Uniti trattino la Cina come uno stato comunista corrotto e la Cina tratti gli Stati Uniti come dei ritardati. Questo fa riflettere le persone su ciò che questi paesi stanno complottando l’uno contro l’altro. Create un accordo tra di voi mentre vi armate. Non abbiamo nessuno che ci stia lavorando, ma l’IA è molto potente”.
L’intelligenza artificiale e l’apprendimento automatico sono tecnologie impressionanti e spesso fraintese. L’IA non è intelligente come pensano le persone. Può creare opere d’arte, prevedere crimini ed effettuare telefonate.
Tuttavia, con compiti più complessi, ad esempio guidare un’auto in una grande città, l’intelligenza artificiale ancora non funziona bene.
Schmidt ha previsto che la Cina e gli Stati Uniti hanno problemi di sicurezza che li debbano far riflettere e concludere dei trattati di contenimento dell’IA, simile a un trattato di non proliferazione nucleare.
Le due città giapponesi di Hiroshima e Nagasaki, distrutte dall’America alla fine della seconda guerra mondiale, hanno causato la morte di centinaia di migliaia di persone e hanno dimostrato al mondo l’orrore delle armi nucleari.
Al momento, esiste una dottrina militare di Mutual Assured Destruction (MAD). Questa teoria della deterrenza garantisce che se un paese lancia un’arma nucleare, lo fa anche ogni altro paese. Non usiamo le armi più distruttive del pianeta, poiché distruggeranno completamente l’intera civiltà.
Il problema con l’intelligenza artificiale è che riflette i valori dei suoi creatori.
Gli algoritmi razzisti creano robot razzisti e un chatbot addestrato su 4chan diventa aggressivo e arrabbiato.
Demis Hassabis, CEO di DeepMind ritiene che le origini e i valori di un creatore di intelligenza artificiale siano di grande importanza. I sistemi di intelligenza artificiale impareranno da soli, ma il resto della cultura e dei valori dei creatori di questo sistema rimarrà nel sistema.
L’IA è un riflesso del suo creatore. Non può distruggere una città con un attacco nucleare a meno che l’umano non insegni all’IA a farlo.
Nel febbraio 2025 avevamo già osservato il funzionamento di DDoSIA, il sistema di crowd-hacking promosso da NoName057(16): un client distribuito via Telegram, attacchi DDoS contro obiettivi europ...
Le vulnerabilità critiche recentemente scoperte nell’infrastruttura Cisco sono già state sfruttate attivamente dagli aggressori per attaccare le reti aziendali. L’azienda ha co...
La Red Hot Cyber Conference ritorna! Dopo il grande successo della terza e quarta edizione, torna l’appuntamento annuale gratuito ideato dalla community di RHC! Un evento pensato per ...
Con la rapida crescita delle minacce digitali, le aziende di tutto il mondo sono sotto attacco informatico. Secondo gli ultimi dati di Check Point Research, ogni organizzazione subisce in media 1,984 ...
La nuova famiglia di malware LameHug utilizza il Large Language Model (LLM) per generare comandi che vengono eseguiti sui sistemi Windows compromessi. Come riportato da Bleeping Computer, LameHug ...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006