
Redazione RHC : 8 Novembre 2025 17:40
Le ultime dichiarazioni di Sam Altman, CEO di OpenAI, in merito al progresso dell’intelligenza artificiale (IA) non sono molto incoraggianti, in quanto ha recentemente affermato di essere preoccupato per “l’impatto dell’IA sui posti di lavoro” e ha anche chiarito che non saremo al sicuro nemmeno in un bunker “se l’IA sfugge al controllo” .
Ma non è tutto, perché in una recente intervista l’AD di OpenAI ha dichiarato senza mezzi termini che dovremmo preoccuparci del futuro che l’intelligenza artificiale ci porterà: “Penso che succederà qualcosa di brutto con l’intelligenza artificiale”.
Come riporta un articolo di Investopedia, un mese fa Sam Altman ha partecipato a un’intervista per il videopodcast a16z della società di venture capital Andreessen Horowitz e ha colto l’occasione per dire che si aspetta che accadano cose brutte a causa dell’intelligenza artificiale: “Spero che a causa della tecnologia non accadano cose davvero brutte”.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Come potete vedere nell’intervista qui sotto, Altman si riferiva a Sora, uno strumento di generazione video lanciato a fine settembre da OpenAI che è rapidamente diventato l’app più scaricata sull’App Store negli Stati Uniti. Ciò ha portato a un’ondata di deepfake creati da questo modello, che hanno inondato i social media con video con personaggi come Martin Luther King Jr. e altri personaggi pubblici come lo stesso Altman.
In effetti, Altman è apparso in questi video mentre compiva varie attività criminali, come potete vedere in questa Instagram Story. Ma non è tutto, poiché Altman ha anche affermato che strumenti come Sora necessitano di controlli per impedire che questa tecnologia venga utilizzata per scopi dannosi: “Molto presto il mondo dovrà vedersela con incredibili modelli video in grado di fingere chiunque o di mostrare qualsiasi cosa si voglia”.
Allo stesso modo, il creatore di ChatGPT ha affermato che, invece di perfezionare questo tipo di tecnologia a porte chiuse, la società e l’intelligenza artificiale dovrebbero collaborare per “co-evolversi” e “non si può semplicemente lasciare tutto alla fine“.
Secondo Altman, ciò che dovremmo fare è offrire alle persone un’esposizione precoce a questo tipo di tecnologia, in modo che le comunità possano creare norme e barriere prima che questi strumenti diventino ancora più potenti. Afferma inoltre che, se lo faremo, saremo meglio preparati quando arriveranno modelli di generazione video basati sull’intelligenza artificiale ancora più avanzati di quelli attuali.
L’avvertimento di Sam Altman non si riferiva solo ai video falsi, ma anche al fatto che molti di noi tendono a “esternalizzare” le proprie decisioni ad algoritmi che poche persone comprendono: “Penso ancora che ci saranno momenti strani o spaventosi.”
Inoltre, Altman ha anche spiegato che il fatto che l’intelligenza artificiale non abbia ancora causato un evento catastrofico “non significa che non lo farà mai” e che “miliardi di persone che parlano allo stesso cervello” potrebbero finire per creare “strane cose su scala sociale” .
“Credo che come società svilupperemo delle barriere attorno a questo fenomeno” ha detto. Infine, sebbene si tratti di qualcosa che ci riguarda tutti, Altman si oppone a una regolamentazione rigida di questa tecnologia perché afferma che “la maggior parte delle regolamentazioni probabilmente presenta molti svantaggi” e che l’ideale sarebbe condurre “test di sicurezza molto accurati” con questi nuovi modelli che ha definito “estremamente sovrumani” .
Redazione
Il colosso della tecnologia ha annunciato la creazione di un nuovo team di sviluppo per un’intelligenza artificiale “sovrumana” che supererà in accuratezza gli esperti umani nelle diagnosi medi...

Nel 2025, gli utenti fanno ancora molto affidamento sulle password di base per proteggere i propri account. Uno studio di Comparitech, basato sull’analisi di oltre 2 miliardi di password reali trape...

Numerosi apprezzamenti stanno arrivando per Elon Musk, che continua a guidare con destrezza le molteplici attività del suo impero, tra cui Tesla, SpaceX, xAI e Starlink, mantenendo salda la sua posiz...

Tre ex dipendenti di DigitalMint, che hanno indagato sugli incidenti ransomware e negoziato con i gruppi di ransomware, sono accusati di aver hackerato le reti di cinque aziende americane. Secondo il ...

Cisco ha reso noto recentemente di aver scoperto una nuova tipologia di attacco informatico mirato a compromettere i dispositivi che operano con i software Cisco Secure Firewall Adaptive Security Appl...