
Redazione RHC : 8 Novembre 2025 17:40
Le ultime dichiarazioni di Sam Altman, CEO di OpenAI, in merito al progresso dell’intelligenza artificiale (IA) non sono molto incoraggianti, in quanto ha recentemente affermato di essere preoccupato per “l’impatto dell’IA sui posti di lavoro” e ha anche chiarito che non saremo al sicuro nemmeno in un bunker “se l’IA sfugge al controllo” .
Ma non è tutto, perché in una recente intervista l’AD di OpenAI ha dichiarato senza mezzi termini che dovremmo preoccuparci del futuro che l’intelligenza artificiale ci porterà: “Penso che succederà qualcosa di brutto con l’intelligenza artificiale”.
Come riporta un articolo di Investopedia, un mese fa Sam Altman ha partecipato a un’intervista per il videopodcast a16z della società di venture capital Andreessen Horowitz e ha colto l’occasione per dire che si aspetta che accadano cose brutte a causa dell’intelligenza artificiale: “Spero che a causa della tecnologia non accadano cose davvero brutte”.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)? Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Come potete vedere nell’intervista qui sotto, Altman si riferiva a Sora, uno strumento di generazione video lanciato a fine settembre da OpenAI che è rapidamente diventato l’app più scaricata sull’App Store negli Stati Uniti. Ciò ha portato a un’ondata di deepfake creati da questo modello, che hanno inondato i social media con video con personaggi come Martin Luther King Jr. e altri personaggi pubblici come lo stesso Altman.
In effetti, Altman è apparso in questi video mentre compiva varie attività criminali, come potete vedere in questa Instagram Story. Ma non è tutto, poiché Altman ha anche affermato che strumenti come Sora necessitano di controlli per impedire che questa tecnologia venga utilizzata per scopi dannosi: “Molto presto il mondo dovrà vedersela con incredibili modelli video in grado di fingere chiunque o di mostrare qualsiasi cosa si voglia”.
Allo stesso modo, il creatore di ChatGPT ha affermato che, invece di perfezionare questo tipo di tecnologia a porte chiuse, la società e l’intelligenza artificiale dovrebbero collaborare per “co-evolversi” e “non si può semplicemente lasciare tutto alla fine“.
Secondo Altman, ciò che dovremmo fare è offrire alle persone un’esposizione precoce a questo tipo di tecnologia, in modo che le comunità possano creare norme e barriere prima che questi strumenti diventino ancora più potenti. Afferma inoltre che, se lo faremo, saremo meglio preparati quando arriveranno modelli di generazione video basati sull’intelligenza artificiale ancora più avanzati di quelli attuali.
L’avvertimento di Sam Altman non si riferiva solo ai video falsi, ma anche al fatto che molti di noi tendono a “esternalizzare” le proprie decisioni ad algoritmi che poche persone comprendono: “Penso ancora che ci saranno momenti strani o spaventosi.”
Inoltre, Altman ha anche spiegato che il fatto che l’intelligenza artificiale non abbia ancora causato un evento catastrofico “non significa che non lo farà mai” e che “miliardi di persone che parlano allo stesso cervello” potrebbero finire per creare “strane cose su scala sociale” .
“Credo che come società svilupperemo delle barriere attorno a questo fenomeno” ha detto. Infine, sebbene si tratti di qualcosa che ci riguarda tutti, Altman si oppone a una regolamentazione rigida di questa tecnologia perché afferma che “la maggior parte delle regolamentazioni probabilmente presenta molti svantaggi” e che l’ideale sarebbe condurre “test di sicurezza molto accurati” con questi nuovi modelli che ha definito “estremamente sovrumani” .
Redazione
Il team di GrapheneOS annuncia la chiusura completa della sua infrastruttura in Francia. Gli sviluppatori stanno accelerando il passaggio dal provider di hosting OVH e accusano dalle autorità frances...

Il Roskomnadzor della Federazione Russa ha annunciato che continua a imporre restrizioni sistematiche all’app di messaggistica WhatsApp a causa di violazioni della legge russa. Secondo l’agenzia, ...

Siamo nell’era dell’inganno a pagamento. Ogni tuo click è un referendum privato in cui vincono sempre loro, gli algoritmi. E non sbagliano mai: ti osservano, ti profilano, ti conoscono meglio di ...

Questa mattina Paragon Sec è stata contattata da un’azienda italiana vittima di un nuovo tentativo di frode conosciuto come Truffa del CEO. L’ufficio contabilità ha ricevuto un’e-mail urgente,...

i ricercatori di Check Point Software, hanno recentemente pubblicato un’indagine sull’aumento delle truffe farmaceutiche basate sull’intelligenza artificiale. È stato rilevato come i criminali ...