
Steven Adler, ricercatore di sicurezza di OpenAI,
ha condiviso un messaggio su X affermando di aver deciso di dimettersi dopo quattro anni di lavoro in OpenAI. Ha detto che di sentirsi spaventato per il futuro dell’IA.
“Sinceramente sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l’intelligenza artificiale in questi giorni“, ha scritto su X. “Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l’umanità arriverà davvero a quel punto?”
Ha poi definito l’intelligenza artificiale generale (AGI) una “scommessa molto rischiosa, con un enorme svantaggio… Nessun laboratorio ha una soluzione per l’allineamento dell’IA oggi”, ha spiegato. “E più velocemente corriamo, meno probabilità ci sono che qualcuno ne trovi una in tempo”.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
“Oggi, sembra che siamo bloccati in un equilibrio davvero pessimo”, ha continuato Adler. “Anche se un laboratorio vuole davvero sviluppare l’AGI in modo responsabile, altri possono ancora prendere scorciatoie per recuperare, forse in modo disastroso. E questo spinge tutti ad accelerare. Spero che i laboratori possano essere sinceri sulle reali norme di sicurezza necessarie per fermare tutto questo“.
Adler non è il primo ricercatore di OpenAI a sollevare preoccupazioni circa l’impatto dell’intelligenza artificiale sull’umanità.
“Anche i CEO che si stanno impegnando nella gara hanno dichiarato che chiunque vinca ha una probabilità significativa di causare l’estinzione umana nel processo perché non abbiamo idea di come controllare sistemi più intelligenti di noi“, ha detto al Financial Times Stuart Russell, professore di informatica all’Università della California, Berkeley .
Le recenti dimissioni di Steven Adler, di OpenAI, evidenziano preoccupazioni significative riguardo alla sicurezza nello sviluppo dell’intelligenza artificiale. Adler ha espresso disaccordo con le priorità dell’azienda, sottolineando la necessità di focalizzarsi maggiormente sull’allineamento dei sistemi di IA ai valori umani.
Queste dimissioni, insieme ad altre partenze di rilievo all’interno di OpenAI, sollevano interrogativi sulla capacità dell’azienda di bilanciare l’innovazione con la responsabilità. È fondamentale che le organizzazioni impegnate nello sviluppo dell’IA si fermino a riflettere su come procedere, garantendo che i progressi tecnologici siano allineati con principi etici e di sicurezza, al fine di prevenire potenziali conflitti o rischi derivanti da algoritmi non adeguatamente controllati.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeSappiamo che i criminal hacker riescono sempre a sorprenderci, e anche questa volta ci stupiscono per le innovazione e i modi che inventano per poter superare gli ostacoli, come i filtri di antispam. I criminali…
VulnerabilitàI backup sono generalmente considerati l’ultima linea di difesa, ma questa settimana Veeam ci ha ricordato che i sistemi di backup stessi possono diventare punti di accesso per gli attacchi. L’azienda ha rilasciato aggiornamenti di…
DirittiIl presente contributo approfondisce le criticità tecniche e costituzionali della proposta di Regolamento COM/2022/209 CSAR(Child Sexual Abuse Regulation). Questo studio fa seguito all’inquadramento generale già delineato e si concentra sul conflitto tra l’integrità dei sistemi…
CybercrimePer gran parte degli ultimi due decenni, la sicurezza informatica si è fondata su un presupposto fondamentale: le attività malevole possono essere individuate, analizzate e contrastate prima che producano danni significativi. Questo assunto ha modellato…
CybercrimeUn nuovo report pubblicato dall’Huntress Tactical Response Team documenta un’intrusione estremamente sofisticata individuata nel dicembre 2025, nella quale un attore avanzato è riuscito a compromettere un’infrastruttura VMware ESXi sfruttando una VM escape, ovvero l’evasione da…