Terremoto in OpenAI: Sciolto il Team per la Sicurezza dell'AGI. Noi abbiamo chiesto a ChatGPT che ne pensa
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
Redhotcyber Banner Sito 320x100px Uscita 101125
Terremoto in OpenAI: Sciolto il Team per la Sicurezza dell’AGI. Noi abbiamo chiesto a ChatGPT che ne pensa

Terremoto in OpenAI: Sciolto il Team per la Sicurezza dell’AGI. Noi abbiamo chiesto a ChatGPT che ne pensa

Redazione RHC : 19 Maggio 2024 14:58

Secondo quanto riferito da Wired venerdì scorso, il team Superalignment di OpenAI, incaricato di controllare il pericolo esistenziale di un sistema di intelligenza artificiale sovrumana, è stato sciolto

La notizia arriva pochi giorni dopo che i fondatori del team, Ilya Sutskever e Jan Leike, hanno lasciato contemporaneamente l’azienda.

Wired riferisce che il team Superalignment di OpenAI, lanciato per la prima volta nel luglio 2023 per impedire che i sistemi di intelligenza artificiale sovrumani in futuro diventino delle canaglie, non esiste più. Il rapporto afferma che il lavoro del gruppo sarà assorbito negli altri sforzi di ricerca di OpenAI.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Secondo Wired, la ricerca sui rischi associati a modelli di intelligenza artificiale più potenti sarà ora condotta dal cofondatore di OpenAI John Schulman. Sutskever e Leike erano alcuni dei migliori scienziati di OpenAI concentrati sui rischi dell’IA.

Leike ha pubblicato un lungo thread su X spiegando vagamente perché ha lasciato OpenAI. Dice che è da tempo in conflitto con la leadership di OpenAI sui valori fondamentali, ma questa settimana ha raggiunto un punto di rottura.

Sottolineando il modo in cui OpenAI affronta la sicurezza, Leike ha affermato nel suo post: “Negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto a prodotti brillanti” e “OpenAI deve diventare un’azienda AGI attenta alla sicurezza”.

Secondo Leike, OpenAI dovrebbe dedicare più tempo alla “preparazione per le prossime generazioni di modelli, alla sicurezza, al monitoraggio, alla preparazione, alla sicurezza, alla robustezza dell’avversario, al (super)allineamento, alla riservatezza, all’impatto sociale e ad argomenti correlati”, ed è preoccupato che OpenAI non sia su quella traiettoria.

All’interno del Superalignment team veniva riportato quanto segue: “Abbiamo bisogno di scoperte scientifiche e tecniche per guidare e controllare i sistemi di intelligenza artificiale molto più intelligenti di noi. Per risolvere questo problema entro quattro anni, stiamo creando un nuovo team, co-guidato da Ilya Sutskever e Jan Leike, e dedicheremo il 20% del calcolo che abbiamo ottenuto finora a questo impegno. Cerchiamo eccellenti ricercatori e ingegneri ML che si uniscano a noi“. Ma sembrerebbe che il team sia sempre stato alla ricerca della potenza di calcolo per poter agire in modo indipendente.

Nel mentre i fondatori Sam Altman e Greg Brockman stanno lavorando per rassicurare le parti interessate. Le partenze di Sutskever e Leike avvengono in un contesto di tensioni sugli approcci allo sviluppo dell’IA. Altman e Brockman sono ora sotto esame a seguito del riassetto del dipartimento di sicurezza.

Abbiamo chiesto a ChatGPT un commento su questi fatti e questa è stata la sua risposta.

  • #agi
  • #cybersecurity
  • #openai
  • chatgpt
  • Intelligenza artificiale
  • microsoft
  • super intelligenza
Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Gli attacchi ransomware diminuiscono nel 2024, ma l’economia criminale rimane in espansione
Di Redazione RHC - 09/12/2025

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...

Immagine del sito
Vulnus vs. Bug: il Coaching tra maschere pirandelliane e patch di sistema
Di Daniela Linda - 09/12/2025

Siamo connessi, connessi a tutto, iperconnessi. La nostra vita professionale e sociale è scandita da deadline strettissime e da un’asticella che viene continuamente alzata, dobbiamo spingere. Ci im...

Immagine del sito
Il 12 Dicembre a Roma, il summit IISFA: Cybercrime e Intelligenza Artificiale
Di Redazione RHC - 09/12/2025

Il Centro Congressi Frentani ospiterà il 12 dicembre la conferenza “Cybercrime, Artificial Intelligence & Digital Forensics”, l’evento annuale organizzato da IISFA – Associazione Italiana...

Immagine del sito
Quale e-commerce italiano presto sarà compromesso? La vendita degli accessi nel Dark Web
Di Redazione RHC - 09/12/2025

Un nuovo post pubblicato poche ore fa sul forum underground Exploit rivela l’ennesima offerta criminale legata alla vendita di accessi a siti compromessi. L’inserzionista, un utente storico del fo...

Immagine del sito
L’Australia vieta i social media agli adolescenti: dal 10 dicembre divieto al di sotto di 16 anni
Di Redazione RHC - 08/12/2025

In Australia, a breve sarà introdotta una normativa innovativa che vieta l’accesso ai social media per i minori di 16 anni, un’iniziativa che farà scuola a livello mondiale. Un’analoga misura ...