Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Gli esperti di AI rispondono alla lettera aperta di Elon Musk, Steve Wozniak e Andrew Yang

Redazione RHC : 12 Aprile 2023 07:16

Un gruppo di esperti nel campo dell’etica dell’IA ha risposto alla lettera Future of Life, firmata la scorsa settimana da circa un migliaio di esperti, tra cui Elon Musk, Steve Wozniak e Andrew Yang. Gli autori di questa risposta erano scettici sulla proposta di una “moratoria” di sei mesi sullo sviluppo dell’IA e sull’addestramento di sistemi che superano la potenza di GPT-4. 

Hanno denunciato l’attenzione della lettera su ipotetiche minacce per il futuro associate allo sviluppo dell’intelligenza artificiale, ritenendo che l’uso della tecnologia AI oggi possa causare danni reali.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell sono ricercatori di intelligenza artificiale ed esperti di etica, meglio conosciuti per l’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. 

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011  per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Attualmente lavorano presso il DAIR Institute, un centro di ricerca dedicato allo studio, alla rilevazione e alla prevenzione dei danni che l’IA può causare.

Gli autori della risposta alla lettera considerano pericoloso una “prospettiva a lungo termine” criticando l’IA perché ignora il danno reale che può causare oggi. Gli esperti di etica sottolineano la minaccia per l’ecosistema dell’informazione e dalla concentrazione del potere nelle mani di poche persone grazie all’intelligenza artificiale.

“Serve una regolamentazione che garantisca la trasparenza. È essenziale che sia chiaro quando incontriamo media sintetici e che le organizzazioni che costruiscono questi sistemi documentino e divulghino i dati di formazione e le architetture dei modelli. La responsabilità della creazione di strumenti sicuri dovrebbe ricadere sulle aziende che creano e implementano sistemi generativi, il che significa che i creatori di questi sistemi dovrebbero essere ritenuti responsabili dei risultati dai loro prodotti… “.

TechCrunch aggiunge una loro posizione con il seguente commento: “I timori di un’apocalisse robotica in stile Terminator o Matrix sono una distrazione quando allo stesso tempo abbiamo informazioni che aziende come Clearview AI vengono utilizzate dalla polizia per sorveglianza e incolpando persone innocenti”.

Gli esperti sottolineano la necessità di concentrarsi sulla regolamentazione e sulla trasparenza invece di sospendere l’IA. 

In sintesi la risposta dei ricercatori si sintetizza nel dover disporre di documentazione obbligatoria compresa la divulgazione di informazioni sui dati e sull’architettura del modello e che le aziende siano ritenute responsabili della creazione di sistemi generativi sicuri e affidabili.

In questo modo è possibile controllare meglio l’impatto dell’IA sulla società e ridurre i rischi associati al suo utilizzo.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.