
Più di mille personalità e specialisti famosi, tra cui Elon Musk e Steve Wozniak, hanno firmato una lettera aperta. Tale lettera invita tutti i laboratori di intelligenza artificiale a sospendere l’addestramento di sistemi di intelligenza artificiale più potenti del GPT-4.
“Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superare in astuzia, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non dovrebbero essere delegate a leader tecnologici non eletti”, afferma la lettera.
Nella lettera, un certo numero di ricercatori di intelligenza artificiale affermano che “un’intelligenza che rivaleggia con quella umana” potrebbe rappresentare un pericolo per la società.
I laboratori di intelligenza artificiale sono impegnati in “una corsa incontrollata per sviluppare e distribuire reti neurali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile”, afferma la lettera.
I firmatari non chiedono un arresto completo dello sviluppo dell’IA, ma propongono una pausa di sei mesi per sviluppare e implementare protocolli di sicurezza comuni. Se una tale pausa nello sviluppo non può essere attuata rapidamente, i governi dovrebbero intervenire e imporre un divieto temporaneo allo sviluppo.
Gli esperti hanno inoltre esortato gli sviluppatori a lavorare a stretto contatto con i responsabili politici e a creare sistemi di gestione dell’IA che monitoreranno i contenuti generati dall’IA. Inoltre, è necessario introdurre audit e responsabilità in caso di danni causati dalla tecnologia.
È interessante notare che tra i firmatari non ci sono rappresentanti di OpenAI, ma ci sono Emad Mostak, fondatore e CEO di Stability AI, nonché ricercatori di DeepMind.
Jeff Jarvis, professore di giornalismo alla City University di New York, ha definito la lettera “assolutamente ridicola”. Jarvis ha detto che la lettera è stata firmata da “molti imprenditori sospetti in cerca di attenzioni”.
Altri ribattono che la lettera aperta è stata firmata da esperti di machine learning e che sembra ragionevole stabilire principi che governino lo sviluppo dell’IA.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber ItaliaPoco fa, l’Università La Sapienza intorno alle 12:28 ha confermato di essere stata vittima di un attacco informatico che ha costretto al blocco temporaneo di tutti i sistemi digitali dell’ateneo. A darne informazione è il…
CybercrimeSe vi state chiedendo quanto sia grande 31,4 terabit al secondo, la risposta pratica è: abbastanza da far sembrare “un problema di rete” quello che in realtà è un problema di ecosistema. Perché il punto…
Cyber ItaliaLa mattina di lunedì 2 febbraio si è aperta con una notizia inattesa per studenti, docenti e personale della Sapienza Università di Roma. I principali servizi digitali dell’ateneo sono risultati improvvisamente irraggiungibili, generando incertezza e…
Cyber NewsBETTI RHC è un progetto editoriale e culturale ideato da Red Hot Cyber, realtà italiana punto di riferimento nel panorama della cybersecurity e della divulgazione tecnologica. Non si tratta di un semplice fumetto, ma di…
Cyber NewsMentre il cloud è diventato il cuore dell’economia digitale, l’Unione europea si trova davanti a una scelta storica: trasformare la certificazione cloud in uno strumento di sovranità o limitarsi ad un semplice controllo tecnico. Il…