
Redazione RHC : 30 Marzo 2023 06:56
Più di mille personalità e specialisti famosi, tra cui Elon Musk e Steve Wozniak, hanno firmato una lettera aperta. Tale lettera invita tutti i laboratori di intelligenza artificiale a sospendere l’addestramento di sistemi di intelligenza artificiale più potenti del GPT-4.
“Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superare in astuzia, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non dovrebbero essere delegate a leader tecnologici non eletti”, afferma la lettera.
Nella lettera, un certo numero di ricercatori di intelligenza artificiale affermano che “un’intelligenza che rivaleggia con quella umana” potrebbe rappresentare un pericolo per la società.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I laboratori di intelligenza artificiale sono impegnati in “una corsa incontrollata per sviluppare e distribuire reti neurali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile”, afferma la lettera.
I firmatari non chiedono un arresto completo dello sviluppo dell’IA, ma propongono una pausa di sei mesi per sviluppare e implementare protocolli di sicurezza comuni. Se una tale pausa nello sviluppo non può essere attuata rapidamente, i governi dovrebbero intervenire e imporre un divieto temporaneo allo sviluppo.
Gli esperti hanno inoltre esortato gli sviluppatori a lavorare a stretto contatto con i responsabili politici e a creare sistemi di gestione dell’IA che monitoreranno i contenuti generati dall’IA. Inoltre, è necessario introdurre audit e responsabilità in caso di danni causati dalla tecnologia.
È interessante notare che tra i firmatari non ci sono rappresentanti di OpenAI, ma ci sono Emad Mostak, fondatore e CEO di Stability AI, nonché ricercatori di DeepMind.
Jeff Jarvis, professore di giornalismo alla City University di New York, ha definito la lettera “assolutamente ridicola”. Jarvis ha detto che la lettera è stata firmata da “molti imprenditori sospetti in cerca di attenzioni”.
Altri ribattono che la lettera aperta è stata firmata da esperti di machine learning e che sembra ragionevole stabilire principi che governino lo sviluppo dell’IA.
Redazione
Cisco ha reso noto recentemente di aver scoperto una nuova tipologia di attacco informatico mirato a compromettere i dispositivi che operano con i software Cisco Secure Firewall Adaptive Security Appl...

Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...

Gli aggressori stanno utilizzando una tecnica avanzata che implica il caricamento laterale di DLL tramite l’applicazione Microsoft OneDrive. In questo modo riescono ad eseguire codice malevolo senza...

I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...