Redazione RHC : 26 Luglio 2024 21:57
William Saunders, un ex dipendente di OpenAI che collaborava nel team di sicurezza, ha paragonato la società di intelligenza artificiale alla White Star Line, la società che costruì il Titanic.
Saunders, che ha lavorato per tre anni nel team di superallineamento di OpenAI, ha spiegato in una Recente intervista di essersi dimesso perché non voleva “finire a lavorare per una azienda simile al Titanic”.
Durante il suo periodo in OpenAI, Saunders si è chiesto se l’azienda assomigliasse di più al programma Apollo della NASA o al Titanic. Le sue preoccupazioni erano incentrate sul piano di OpenAI di raggiungere l’ Intelligenza Artificiale Generale (AGI) lanciando prodotti a pagamento.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Secondo Saunders, l’azienda dà priorità alla creazione di nuovi “prodotti scintillanti” invece di concentrarsi sulla sicurezza e sulla valutazione del rischio, rendendola meno simile al programma Apollo.
Saunders ha osservato che il programma Apollo era caratterizzato da un’attenta previsione e valutazione dei rischi , mantenendo una “ridondanza sufficiente” per adattarsi a gravi problemi, come è accaduto con l’Apollo 13.
Al contrario, la White Star Line costruì il Titanic con compartimenti stagni e lo promosse come inaffondabile, non fornì abbastanza scialuppe di salvataggio , il che alla fine si tradusse in tragedia quando si verificò il noto disastro.
L’ex dipendente di OpenAI teme che l’azienda faccia troppo affidamento sulle sue attuali (e presumibilmente insufficienti) misure di sicurezza e ha suggerito che OpenAI dovrebbe ritardare il rilascio di nuovi modelli di IA per indagare sui potenziali pericoli . Saunders, che ha guidato un gruppo incentrato sulla comprensione dei comportamenti dei modelli di linguaggio di IA, ha espresso la necessità di sviluppare tecniche per valutare se questi sistemi “nascondono capacità o motivazioni pericolose”.
Saunders ha anche espresso la sua delusione per le azioni di OpenAI fino a oggi. A febbraio ha lasciato l’azienda e a maggio OpenAI ha sciolto il team di superallineamento poco dopo aver rilasciato GPT-4 , il loro modello di intelligenza artificiale più avanzato.
La risposta di OpenAI alle preoccupazioni sulla sicurezza e il loro ritmo accelerato di sviluppo sono stati criticati da vari dipendenti ed esperti, che hanno messo in guardia sulla necessità di un maggiore controllo governativo per prevenire future catastrofi.
All’inizio di giugno, un gruppo di dipendenti di DeepMind e OpenAI ha pubblicato una lettera aperta , sottolineando che le attuali normative di controllo sono insufficienti per prevenire un disastro per l’umanità. Inoltre, Ilya Sutskever , co-fondatore di OpenAI ed ex scienziato capo, si è dimesso per avviare Safe Superintelligence , una startup che si concentrerà sulla ricerca sull’intelligenza artificiale con priorità sulla sicurezza.
Solamente due settimane fa, il robot umanoide prodotto da Figure ha destato in noi grande meraviglia, quando con destrezza ha preso degli indumenti da un paniere dei panni sporchi e li ha collocati al...
Il team di ricerca di Trustwave SpiderLabs ha identificato una nuova ondata di attacchi EncryptHub che combinano l’errore umano e lo sfruttamento di una vulnerabilità nella Microsoft Manag...
Gli aggressori hanno iniziato a utilizzare un trucco insolito per mascherare i link di phishing, facendoli apparire come indirizzi di Booking.com. La nuova campagna malware utilizza il carattere hirag...
Una falla di sicurezza critica è stata resa pubblica da Cisco nel suo software Secure Firewall Management Center (FMC), permettendo potenzialmente a malintenzionati non autenticati di eseguire, a...
Mentre l’ascesa dei robot in Cina, il più grande mercato e produttore di robot al mondo, sta attirando l’attenzione dell’industria globale dell’informatica (IT), l...