
Redazione RHC : 31 Gennaio 2025 20:39
Steven Adler, ricercatore di sicurezza di OpenAI,
ha condiviso un messaggio su X affermando di aver deciso di dimettersi dopo quattro anni di lavoro in OpenAI. Ha detto che di sentirsi spaventato per il futuro dell’IA.
“Sinceramente sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l’intelligenza artificiale in questi giorni“, ha scritto su X. “Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l’umanità arriverà davvero a quel punto?”
Ha poi definito l’intelligenza artificiale generale (AGI) una “scommessa molto rischiosa, con un enorme svantaggio… Nessun laboratorio ha una soluzione per l’allineamento dell’IA oggi”, ha spiegato. “E più velocemente corriamo, meno probabilità ci sono che qualcuno ne trovi una in tempo”.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“Oggi, sembra che siamo bloccati in un equilibrio davvero pessimo”, ha continuato Adler. “Anche se un laboratorio vuole davvero sviluppare l’AGI in modo responsabile, altri possono ancora prendere scorciatoie per recuperare, forse in modo disastroso. E questo spinge tutti ad accelerare. Spero che i laboratori possano essere sinceri sulle reali norme di sicurezza necessarie per fermare tutto questo“.
Adler non è il primo ricercatore di OpenAI a sollevare preoccupazioni circa l’impatto dell’intelligenza artificiale sull’umanità.
“Anche i CEO che si stanno impegnando nella gara hanno dichiarato che chiunque vinca ha una probabilità significativa di causare l’estinzione umana nel processo perché non abbiamo idea di come controllare sistemi più intelligenti di noi“, ha detto al Financial Times Stuart Russell, professore di informatica all’Università della California, Berkeley .
Le recenti dimissioni di Steven Adler, di OpenAI, evidenziano preoccupazioni significative riguardo alla sicurezza nello sviluppo dell’intelligenza artificiale. Adler ha espresso disaccordo con le priorità dell’azienda, sottolineando la necessità di focalizzarsi maggiormente sull’allineamento dei sistemi di IA ai valori umani.
Queste dimissioni, insieme ad altre partenze di rilievo all’interno di OpenAI, sollevano interrogativi sulla capacità dell’azienda di bilanciare l’innovazione con la responsabilità. È fondamentale che le organizzazioni impegnate nello sviluppo dell’IA si fermino a riflettere su come procedere, garantendo che i progressi tecnologici siano allineati con principi etici e di sicurezza, al fine di prevenire potenziali conflitti o rischi derivanti da algoritmi non adeguatamente controllati.
Redazione
Una vulnerabilità zero-day nel driver Windows Cloud Files Mini Filter (cldflt.sys) è attualmente oggetto di sfruttamento attivo. Microsoft ha provveduto al rilascio di aggiornamenti di sicurezza urg...

Una vulnerabilità critica, monitorata con il codice CVE-2025-59719, riguarda le linee di prodotti FortiOS, FortiWeb, FortiProxy e FortiSwitchManager è stata segnalata da Fortinet tramite un avviso d...

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...

Siamo connessi, connessi a tutto, iperconnessi. La nostra vita professionale e sociale è scandita da deadline strettissime e da un’asticella che viene continuamente alzata, dobbiamo spingere. Ci im...

Il Centro Congressi Frentani ospiterà il 12 dicembre la conferenza “Cybercrime, Artificial Intelligence & Digital Forensics”, l’evento annuale organizzato da IISFA – Associazione Italiana...