Redazione RHC : 12 Aprile 2023 07:16
Un gruppo di esperti nel campo dell’etica dell’IA ha risposto alla lettera Future of Life, firmata la scorsa settimana da circa un migliaio di esperti, tra cui Elon Musk, Steve Wozniak e Andrew Yang. Gli autori di questa risposta erano scettici sulla proposta di una “moratoria” di sei mesi sullo sviluppo dell’IA e sull’addestramento di sistemi che superano la potenza di GPT-4.
Hanno denunciato l’attenzione della lettera su ipotetiche minacce per il futuro associate allo sviluppo dell’intelligenza artificiale, ritenendo che l’uso della tecnologia AI oggi possa causare danni reali.
Timnit Gebru, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell sono ricercatori di intelligenza artificiale ed esperti di etica, meglio conosciuti per l’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Attualmente lavorano presso il DAIR Institute, un centro di ricerca dedicato allo studio, alla rilevazione e alla prevenzione dei danni che l’IA può causare.
Gli autori della risposta alla lettera considerano pericoloso una “prospettiva a lungo termine” criticando l’IA perché ignora il danno reale che può causare oggi. Gli esperti di etica sottolineano la minaccia per l’ecosistema dell’informazione e dalla concentrazione del potere nelle mani di poche persone grazie all’intelligenza artificiale.
“Serve una regolamentazione che garantisca la trasparenza. È essenziale che sia chiaro quando incontriamo media sintetici e che le organizzazioni che costruiscono questi sistemi documentino e divulghino i dati di formazione e le architetture dei modelli. La responsabilità della creazione di strumenti sicuri dovrebbe ricadere sulle aziende che creano e implementano sistemi generativi, il che significa che i creatori di questi sistemi dovrebbero essere ritenuti responsabili dei risultati dai loro prodotti… “.
TechCrunch aggiunge una loro posizione con il seguente commento: “I timori di un’apocalisse robotica in stile Terminator o Matrix sono una distrazione quando allo stesso tempo abbiamo informazioni che aziende come Clearview AI vengono utilizzate dalla polizia per sorveglianza e incolpando persone innocenti”.
Gli esperti sottolineano la necessità di concentrarsi sulla regolamentazione e sulla trasparenza invece di sospendere l’IA.
In sintesi la risposta dei ricercatori si sintetizza nel dover disporre di documentazione obbligatoria compresa la divulgazione di informazioni sui dati e sull’architettura del modello e che le aziende siano ritenute responsabili della creazione di sistemi generativi sicuri e affidabili.
In questo modo è possibile controllare meglio l’impatto dell’IA sulla società e ridurre i rischi associati al suo utilizzo.
Dopo la chiusura della piattaforma di phishing Darcula e del software Magic Cat utilizzato dai truffatori, la soluzione Magic Mouse ha guadagnato popolarità tra i criminali. Secondo gli specialis...
Gli analisti di Binarly hanno trovato almeno 35 immagini su Docker Hub ancora infette da una backdoor che ha penetrato xz Utils l’anno scorso. I ricercatori hanno avvertito che questo potrebbe ...
Tre gravi vulnerabilità di Microsoft Office, che potrebbero permettere agli aggressori di eseguire codice remoto sui sistemi colpiti, sono state risolte da Microsoft con il rilascio di aggiorname...
Dalle macchine che apprendono a quelle che si auto migliorano: il salto evolutivo che sta riscrivendo il codice del futuro Mentre leggete questo articolo, molto probabilmente, in un data center del mo...
Trend Micro ha rilevato un attacco mirato ai settori governativo e aeronautico in Medio Oriente, utilizzando un nuovo ransomware chiamato Charon. Gli aggressori hanno utilizzato una complessa catena d...