Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Un ex dipendente di Open AI paragona l’azienda alla White Star Line, che realizzò il Titanic.

Un ex dipendente di Open AI paragona l’azienda alla White Star Line, che realizzò il Titanic.

26 Luglio 2024 21:57

William Saunders, un ex dipendente di OpenAI che collaborava nel team di sicurezza, ha paragonato la società di intelligenza artificiale alla White Star Line, la società che costruì il Titanic.

Saunders, che ha lavorato per tre anni nel team di superallineamento di OpenAI, ha spiegato in una Recente intervista di essersi dimesso perché non voleva “finire a lavorare per una azienda simile al Titanic”.

Durante il suo periodo in OpenAI, Saunders si è chiesto se l’azienda assomigliasse di più al programma Apollo della NASA o al Titanic. Le sue preoccupazioni erano incentrate sul piano di OpenAI di raggiungere l’ Intelligenza Artificiale Generale (AGI) lanciando prodotti a pagamento.

Secondo Saunders, l’azienda dà priorità alla creazione di nuovi “prodotti scintillanti” invece di concentrarsi sulla sicurezza e sulla valutazione del rischio, rendendola meno simile al programma Apollo.

Saunders ha osservato che il programma Apollo era caratterizzato da un’attenta previsione e valutazione dei rischi , mantenendo una “ridondanza sufficiente” per adattarsi a gravi problemi, come è accaduto con l’Apollo 13.

Al contrario, la White Star Line costruì il Titanic con compartimenti stagni e lo promosse come inaffondabile, non fornì abbastanza scialuppe di salvataggio , il che alla fine si tradusse in tragedia quando si verificò il noto disastro.

L’ex dipendente di OpenAI teme che l’azienda faccia troppo affidamento sulle sue attuali (e presumibilmente insufficienti) misure di sicurezza e ha suggerito che OpenAI dovrebbe ritardare il rilascio di nuovi modelli di IA per indagare sui potenziali pericoli . Saunders, che ha guidato un gruppo incentrato sulla comprensione dei comportamenti dei modelli di linguaggio di IA, ha espresso la necessità di sviluppare tecniche per valutare se questi sistemi “nascondono capacità o motivazioni pericolose”.

Saunders ha anche espresso la sua delusione per le azioni di OpenAI fino a oggi. A febbraio ha lasciato l’azienda e a maggio OpenAI ha sciolto il team di superallineamento poco dopo aver rilasciato GPT-4 , il loro modello di intelligenza artificiale più avanzato.

La risposta di OpenAI alle preoccupazioni sulla sicurezza e il loro ritmo accelerato di sviluppo sono stati criticati da vari dipendenti ed esperti, che hanno messo in guardia sulla necessità di un maggiore controllo governativo per prevenire future catastrofi.

All’inizio di giugno, un gruppo di dipendenti di DeepMind e OpenAI ha pubblicato una lettera aperta , sottolineando che le attuali normative di controllo sono insufficienti per prevenire un disastro per l’umanità. Inoltre, Ilya Sutskever , co-fondatore di OpenAI ed ex scienziato capo, si è dimesso per avviare Safe Superintelligence , una startup che si concentrerà sulla ricerca sull’intelligenza artificiale con priorità sulla sicurezza.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…