Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Elon Musk e Steve Wozniak invitano i laboratori di AI a sospendere l’addestramento di sistemi più potenti di GPT-4

Redazione RHC : 30 Marzo 2023 06:56

Più di mille personalità e specialisti famosi, tra cui Elon Musk e Steve Wozniak, hanno firmato una lettera aperta. Tale lettera invita tutti i laboratori di intelligenza artificiale a sospendere l’addestramento di sistemi di intelligenza artificiale più potenti del GPT-4.

“Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superare in astuzia, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non dovrebbero essere delegate a leader tecnologici non eletti”, afferma la lettera.

Nella lettera, un certo numero di ricercatori di intelligenza artificiale affermano che “un’intelligenza che rivaleggia con quella umana” potrebbe rappresentare un pericolo per la società.

I laboratori di intelligenza artificiale sono impegnati in “una corsa incontrollata per sviluppare e distribuire reti neurali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile”, afferma la lettera.

I firmatari non chiedono un arresto completo dello sviluppo dell’IA, ma propongono una pausa di sei mesi per sviluppare e implementare protocolli di sicurezza comuni. Se una tale pausa nello sviluppo non può essere attuata rapidamente, i governi dovrebbero intervenire e imporre un divieto temporaneo allo sviluppo.

Gli esperti hanno inoltre esortato gli sviluppatori a lavorare a stretto contatto con i responsabili politici e a creare sistemi di gestione dell’IA che monitoreranno i contenuti generati dall’IA. Inoltre, è necessario introdurre audit e responsabilità in caso di danni causati dalla tecnologia.

È interessante notare che tra i firmatari non ci sono rappresentanti di OpenAI, ma ci sono Emad Mostak, fondatore e CEO di Stability AI, nonché ricercatori di DeepMind.

Jeff Jarvis, professore di giornalismo alla City University di New York, ha definito la lettera “assolutamente ridicola”. Jarvis ha detto che la lettera è stata firmata da “molti imprenditori sospetti in cerca di attenzioni”.

Altri ribattono che la lettera aperta è stata firmata da esperti di machine learning e che sembra ragionevole stabilire principi che governino lo sviluppo dell’IA.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.