Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
OpenAI chiude Sora: il futuro dell’AI non è più Video! Scopriamo cosa sta accadendo

OpenAI chiude Sora: il futuro dell’AI non è più Video! Scopriamo cosa sta accadendo

26 Marzo 2026 14:40

OpenAI ha chiuso Sora, la sua piattaforma di generazione video AI, a causa di scarsa monetizzazione, rischi legali legati al copyright e difficoltà nel controllo dei contenuti. L’azienda sposterà le risorse verso robotica e agenti autonomi, segnando un cambio strategico netto e riducendo l’esposizione a problemi normativi e reputazionali.

Sora era un sistema di generazione video basato su modelli di intelligenza artificiale avanzata, progettato per trasformare input testuali in clip video altamente realistici. Il principio tecnologico alla base era simile ai modelli generativi multimodali: reti neurali addestrate su grandi dataset visivi per apprendere coerenza temporale, dinamiche fisiche e relazioni tra oggetti.

Advertising

Il salto qualitativo rispetto ad altri strumenti era evidente. Non solo immagini statiche, ma sequenze complesse. Movimento credibile. Interazioni tra elementi. In breve, simulazione del reale.

Il punto è un altro. Questo tipo di tecnologia non è solo creativa. È anche estremamente sensibile. Perché combina tre fattori critici: capacità di imitazione, accesso a dati protetti e possibilità di manipolazione percettiva. Ed è qui che emergono le fragilità. Non tecniche. Strutturali.

Il fallimento economico: quando l’hype non paga

Sora ha fatto rumore. Molto. Ma non ha fatto soldi.

I dati raccolti dalla società di analisi Sensor Tower parlano chiaro: circa 1,4 milioni di dollari di ricavi globali in-app contro gli 1,9 miliardi generati da ChatGPT nello stesso periodo. Una forbice enorme. Ingiustificabile per un prodotto ad alta intensità di capitale.

Secondo quanto riportato dalla BBC, OpenAI ha deciso di interrompere lo sviluppo proprio per riallocare risorse verso progetti considerati più sostenibili. Thomas Husson, analista di Forrester, ha definito Sora un “buco nero di risorse”. Non è una metafora casuale. Addestrare modelli video costa enormemente di più rispetto ai modelli testuali. Serve potenza computazionale superiore, dataset più complessi, validazione continua. Ma soprattutto manca un modello di business chiaro.

Gli utenti sperimentano. Le aziende osservano. Ma pochi pagano. Henry Ajder, esperto di deepfake, ha sottolineato un punto chiave: l’interesse iniziale è svanito rapidamente. Classico ciclo hype-disillusione. E allora la domanda diventa inevitabile. Vale la pena investire miliardi in una tecnologia che il mercato non ha ancora deciso di adottare davvero? OpenAI ha risposto. No.

Il vero problema: copyright, deepfake e contenuti non consensuali

Qui la questione si fa seria. Sora non era solo difficile da monetizzare. Era difficile da controllare. Le piattaforme di generazione video AI si trovano su un terreno scivoloso: possono creare contenuti realistici che imitano persone, brand e proprietà intellettuali. Questo apre tre fronti di rischio.

Il primo è il copyright. L’accordo con The Walt Disney Company rappresentava un tentativo di legittimazione. Consentire l’uso di personaggi come Topolino o Yoda all’interno dei video generati dagli utenti. Sembrava una svolta. In realtà era un test. Secondo quanto riportato dalla BBC, non c’è stato alcun passaggio di denaro prima della chiusura dell’accordo. Un segnale preciso: il modello non funzionava nemmeno per i giganti dell’intrattenimento.

Il secondo problema riguarda i contenuti non consensuali. Husson ha evidenziato come la piattaforma abbia faticato a bloccare la creazione di video problematici. I famosi Deepfake. Manipolazioni. Disinformazione visiva. Il terzo è reputazionale. Le aziende non vogliono essere associate a tecnologie fuori controllo. I dati dicono il contrario rispetto al sentito dire. Non è l’AI il problema principale. È l’ecosistema legale e sociale che non è pronto a gestirla.

E qui arriva un punto controintuitivo: la vera falla non è il software del fornitore, ma l’eccessiva fiducia nei contratti di licenza come soluzione ai rischi. Non basta firmare accordi. Serve controllo operativo. Che oggi non esiste.

La svolta strategica: robotica e agenti autonomi

OpenAI ha fatto una scelta netta. Abbandonare il video. Puntare su altro. La dichiarazione ufficiale parla di robotica e sistemi “agente”, cioè intelligenze artificiali capaci di completare compiti in autonomia con supervisione minima. Questo cambio di rotta non è casuale. La tecnologia sviluppata per Sora verrà riutilizzata. Non buttata. I modelli che comprendono il mondo visivo possono essere applicati ai robot. Navigazione. Manipolazione. Interazione fisica.

In altre parole: dal digitale al reale. E qui emerge una dinamica interessante. Generare video è affascinante. Ma insegnare a una macchina a muoversi nel mondo fisico ha un valore economico molto più concreto. Industria. Logistica. Automazione. Settori dove il ritorno sull’investimento è misurabile. Secondo la BBC, OpenAI vuole concentrarsi su “problemi fisici concreti”. Traduzione: meno demo spettacolari, più applicazioni pratiche.

E c’è un altro fattore. Il rischio normativo. Le tecnologie video generative attirano attenzione politica immediata. Deepfake elettorali. Disinformazione. Violazioni di identità. La robotica, invece, è percepita diversamente. Più neutrale. Più accettabile. Questa non è solo una scelta tecnologica. È una mossa difensiva.

L’effetto sull’industria: Hollywood, AI e la crisi di fiducia

La chiusura di Sora manda un messaggio forte all’intero settore. Per mesi si è parlato di rivoluzione. Registi sostituiti. Attori digitali. Produzione automatizzata. La realtà è più complessa. Le grandi case di produzione avevano già avviato azioni legali contro le aziende AI per l’uso non autorizzato dei contenuti. L’accordo tra Disney e OpenAI sembrava un punto di svolta. Non lo è stato.

Disney stessa ha dichiarato che continuerà a collaborare con altre piattaforme AI, ma con un focus preciso: utilizzo responsabile e rispetto della proprietà intellettuale. Traduzione: maggiore controllo, meno sperimentazione libera. Questo scenario apre un problema serio per la supply chain dei contenuti digitali. Le aziende tecnologiche dipendono dai dati. Le aziende media controllano quei dati.

Siamo di fronte ad un equilibrio fragile. Se le seconde chiudono l’accesso, le prime rallentano. E il mercato si blocca. La chiusura di Sora dimostra che la tensione non è risolta. È solo stata rimandata.

FAQ

Perché OpenAI ha chiuso Sora?

OpenAI ha chiuso Sora principalmente per tre motivi: scarsa redditività, elevati costi di sviluppo e rischi legali. I ricavi generati erano minimi rispetto ad altri prodotti come ChatGPT, mentre i costi computazionali restavano altissimi. Inoltre, la piattaforma faticava a controllare contenuti problematici, inclusi deepfake e violazioni di copyright, aumentando l’esposizione a rischi normativi e reputazionali.

Cosa succede alla partnership con Disney?

La collaborazione tra OpenAI e Disney è stata interrotta insieme alla chiusura di Sora. L’accordo permetteva l’utilizzo di personaggi iconici nei video AI, ma non ha portato a un modello economico sostenibile. Disney ha dichiarato che continuerà a esplorare l’AI con altri partner, mantenendo però un forte controllo sulla proprietà intellettuale.

Sora era davvero innovativa?

Sì, dal punto di vista tecnologico Sora rappresentava uno dei sistemi più avanzati di generazione video AI. Era in grado di creare clip realistiche con coerenza temporale e interazioni complesse. Tuttavia, innovazione tecnica non significa automaticamente successo commerciale, soprattutto quando i costi superano i benefici.

OpenAI abbandona definitivamente il video AI?

Secondo le informazioni disponibili, OpenAI non si concentrerà più sullo sviluppo di strumenti di generazione video. Tuttavia, la tecnologia sviluppata per Sora verrà riutilizzata in altri ambiti, come la robotica e i sistemi autonomi. Questo indica un cambio di priorità, non un abbandono completo delle competenze acquisite.

Quali rischi ha evidenziato il caso Sora?

Il caso Sora ha messo in luce rischi significativi: uso improprio dei contenuti, difficoltà nel controllo dei deepfake, violazioni di copyright e problemi di monetizzazione. Ha anche dimostrato che il mercato non è ancora pronto ad adottare su larga scala strumenti di generazione video AI senza un quadro normativo chiaro.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Carolina Vivianti 300x300
Carolina Vivianti è consulente/Advisor autonomo in sicurezza informatica con esperienza nel settore tech e security. Ha lavorato come Security Advisor per Ford EU/Ford Motor Company e Vodafone e ha studi presso la Sapienza Università di Roma.
Aree di competenza: Cybersecurity, IT Risk Management, Security Advisory, Threat Analysis, Data Protection, Cloud Security, Compliance & Governance