Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Un ex dipendente di Open AI paragona l’azienda alla White Star Line, che realizzò il Titanic.

Redazione RHC : 26 Luglio 2024 21:57

William Saunders, un ex dipendente di OpenAI che collaborava nel team di sicurezza, ha paragonato la società di intelligenza artificiale alla White Star Line, la società che costruì il Titanic.

Saunders, che ha lavorato per tre anni nel team di superallineamento di OpenAI, ha spiegato in una Recente intervista di essersi dimesso perché non voleva “finire a lavorare per una azienda simile al Titanic”.

Durante il suo periodo in OpenAI, Saunders si è chiesto se l’azienda assomigliasse di più al programma Apollo della NASA o al Titanic. Le sue preoccupazioni erano incentrate sul piano di OpenAI di raggiungere l’ Intelligenza Artificiale Generale (AGI) lanciando prodotti a pagamento.

Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Secondo Saunders, l’azienda dà priorità alla creazione di nuovi “prodotti scintillanti” invece di concentrarsi sulla sicurezza e sulla valutazione del rischio, rendendola meno simile al programma Apollo.

Saunders ha osservato che il programma Apollo era caratterizzato da un’attenta previsione e valutazione dei rischi , mantenendo una “ridondanza sufficiente” per adattarsi a gravi problemi, come è accaduto con l’Apollo 13.

Al contrario, la White Star Line costruì il Titanic con compartimenti stagni e lo promosse come inaffondabile, non fornì abbastanza scialuppe di salvataggio , il che alla fine si tradusse in tragedia quando si verificò il noto disastro.

L’ex dipendente di OpenAI teme che l’azienda faccia troppo affidamento sulle sue attuali (e presumibilmente insufficienti) misure di sicurezza e ha suggerito che OpenAI dovrebbe ritardare il rilascio di nuovi modelli di IA per indagare sui potenziali pericoli . Saunders, che ha guidato un gruppo incentrato sulla comprensione dei comportamenti dei modelli di linguaggio di IA, ha espresso la necessità di sviluppare tecniche per valutare se questi sistemi “nascondono capacità o motivazioni pericolose”.

Saunders ha anche espresso la sua delusione per le azioni di OpenAI fino a oggi. A febbraio ha lasciato l’azienda e a maggio OpenAI ha sciolto il team di superallineamento poco dopo aver rilasciato GPT-4 , il loro modello di intelligenza artificiale più avanzato.

La risposta di OpenAI alle preoccupazioni sulla sicurezza e il loro ritmo accelerato di sviluppo sono stati criticati da vari dipendenti ed esperti, che hanno messo in guardia sulla necessità di un maggiore controllo governativo per prevenire future catastrofi.

All’inizio di giugno, un gruppo di dipendenti di DeepMind e OpenAI ha pubblicato una lettera aperta , sottolineando che le attuali normative di controllo sono insufficienti per prevenire un disastro per l’umanità. Inoltre, Ilya Sutskever , co-fondatore di OpenAI ed ex scienziato capo, si è dimesso per avviare Safe Superintelligence , una startup che si concentrerà sulla ricerca sull’intelligenza artificiale con priorità sulla sicurezza.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Dentro la mente di LockBit: profilazione criminologica di un gruppo ransomware “aziendale”

Nel mondo del cybercrime moderno, dove le frontiere tra criminalità e imprenditoria si fanno sempre più sfumate, il gruppo ransomware LockBit rappresenta un caso di studio affascinante. Atti...

Più le AI diventano come noi, più soffriranno di Social Engineering? Il caso di Copilot che preoccupa

Microsoft 365 Copilot è uno strumento di intelligenza artificiale integrato in applicazioni Office come Word, Excel, Outlook, PowerPoint e Teams. I ricercatori hanno recentemente scoperto che lo ...

CVE-2025-32710: La falla zero-click nei servizi RDP che può causare la totale compromissione del tuo server

Una vulnerabilità di sicurezza critica nei Servizi Desktop remoto di Windows, monitorata con il codice CVE-2025-32710, consente ad aggressori non autorizzati di eseguire codice arbitrario in...

RHC Intervista GhostSec: l’hacktivismo tra le ombre del terrorismo e del conflitto cibernetico

Ghost Security, noto anche come GhostSec, è un gruppo hacktivista emerso nel contesto della guerra cibernetica contro l’estremismo islamico. Le sue prime azioni risalgono alla fase success...

Arriva PathWiper! Il nuovo malware che devasta le infrastrutture critiche in Ucraina

Gli analisti di Cisco Talos hanno segnalato che le infrastrutture critiche in Ucraina sono state attaccate da un nuovo malware che distrugge i dati chiamato PathWiper. I ricercatori scrivono...