
Redazione RHC : 26 Luglio 2024 21:57
William Saunders, un ex dipendente di OpenAI che collaborava nel team di sicurezza, ha paragonato la società di intelligenza artificiale alla White Star Line, la società che costruì il Titanic.
Saunders, che ha lavorato per tre anni nel team di superallineamento di OpenAI, ha spiegato in una Recente intervista di essersi dimesso perché non voleva “finire a lavorare per una azienda simile al Titanic”.
Durante il suo periodo in OpenAI, Saunders si è chiesto se l’azienda assomigliasse di più al programma Apollo della NASA o al Titanic. Le sue preoccupazioni erano incentrate sul piano di OpenAI di raggiungere l’ Intelligenza Artificiale Generale (AGI) lanciando prodotti a pagamento.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Secondo Saunders, l’azienda dà priorità alla creazione di nuovi “prodotti scintillanti” invece di concentrarsi sulla sicurezza e sulla valutazione del rischio, rendendola meno simile al programma Apollo.
Saunders ha osservato che il programma Apollo era caratterizzato da un’attenta previsione e valutazione dei rischi , mantenendo una “ridondanza sufficiente” per adattarsi a gravi problemi, come è accaduto con l’Apollo 13.
Al contrario, la White Star Line costruì il Titanic con compartimenti stagni e lo promosse come inaffondabile, non fornì abbastanza scialuppe di salvataggio , il che alla fine si tradusse in tragedia quando si verificò il noto disastro.
L’ex dipendente di OpenAI teme che l’azienda faccia troppo affidamento sulle sue attuali (e presumibilmente insufficienti) misure di sicurezza e ha suggerito che OpenAI dovrebbe ritardare il rilascio di nuovi modelli di IA per indagare sui potenziali pericoli . Saunders, che ha guidato un gruppo incentrato sulla comprensione dei comportamenti dei modelli di linguaggio di IA, ha espresso la necessità di sviluppare tecniche per valutare se questi sistemi “nascondono capacità o motivazioni pericolose”.
Saunders ha anche espresso la sua delusione per le azioni di OpenAI fino a oggi. A febbraio ha lasciato l’azienda e a maggio OpenAI ha sciolto il team di superallineamento poco dopo aver rilasciato GPT-4 , il loro modello di intelligenza artificiale più avanzato.
La risposta di OpenAI alle preoccupazioni sulla sicurezza e il loro ritmo accelerato di sviluppo sono stati criticati da vari dipendenti ed esperti, che hanno messo in guardia sulla necessità di un maggiore controllo governativo per prevenire future catastrofi.
All’inizio di giugno, un gruppo di dipendenti di DeepMind e OpenAI ha pubblicato una lettera aperta , sottolineando che le attuali normative di controllo sono insufficienti per prevenire un disastro per l’umanità. Inoltre, Ilya Sutskever , co-fondatore di OpenAI ed ex scienziato capo, si è dimesso per avviare Safe Superintelligence , una startup che si concentrerà sulla ricerca sull’intelligenza artificiale con priorità sulla sicurezza.
Redazione
Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...

Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali V...

Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...