Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
OpenAI rafforza i controlli su Sora 2 dopo critiche per video con attori famosi

OpenAI rafforza i controlli su Sora 2 dopo critiche per video con attori famosi

27 Ottobre 2025 07:09

La continua generazione di videoclip con attori famosi pubblicati senza il loro consenso sulla piattaforma Sora 2 ha nuovamente attirato l’attenzione sui problemi associati all’utilizzo di reti neurali per creare copie digitali di persone.

Dopo che il servizio di OpenAI ha pubblicato video generati con Bryan Cranston, tra cui un video con Michael Jackson, l’azienda ha annunciato che avrebbe rafforzato i controlli sull’utilizzo delle immagini e delle voci di personaggi famosi.

Lo stesso Cranston, il sindacato degli attori SAG-AFTRA e diverse importanti agenzie (United Talent Agency, Creative Artists Agency e Association of Talent Agents) hanno rilasciato una dichiarazione congiunta. Hanno sottolineato che OpenAI ha riconosciuto la generazione indesiderata e ne ha espresso rammarico. In risposta alle critiche, l’azienda ha ribadito il suo impegno nei confronti del principio di partecipazione volontaria alla creazione di copie digitali: nessun artista o performer dovrebbe apparire in tali video senza previa autorizzazione. Ha inoltre promesso di rispondere tempestivamente ai reclami relativi alle violazioni di questa politica.

Sebbene OpenAI non abbia divulgato i dettagli delle modifiche apportate all’app Sora, l’annuncio in sé ha rappresentato un passo importante nel riconoscimento pubblico del problema.

La piattaforma aveva già scatenato un’ondata di critiche dopo aver pubblicato video con immagini distorte di personaggi famosi. A seguito di questi incidenti, l’azienda ha revocato la sua precedente politica “predefinita” e ha promesso di fornire ai titolari dei diritti d’autore un controllo più granulare sulla generazione di contenuti, più vicino ai principi del consenso volontario per l’uso delle apparenze.

Sebbene Cranston abbia sottolineato la risposta positiva di OpenAI e l’abbia definita un importante esempio di promozione del dialogo, il presidente del SAG-AFTRA, Sean Astin, ha chiesto un intervento legislativo. Ha sottolineato la necessità di uno strumento legale in grado di proteggere i professionisti della creatività dalle copie non autorizzate su larga scala tramite l’intelligenza artificiale. In questo contesto, ha menzionato il disegno di legge NO FAKES (Nurture Originals, Foster Art, and Keep Entertainment Safe Act), attualmente in discussione negli Stati Uniti, che mira a proteggere dalla replica digitale senza il permesso dell’artista originale.

Nel contesto della rapida diffusione dei modelli generativi e della loro integrazione nelle piattaforme mediatiche più diffuse, tali incidenti sollevano un interrogativo urgente: quali sono i limiti di ciò che è accettabile quando le tecnologie sono in grado di ricreare i volti e le voci delle persone con una fedeltà pressoché perfetta?

Mentre le aziende promettono di rafforzare i filtri e migliorare la supervisione, la comunità professionale continua a insistere sulle garanzie istituzionali, anche a livello legislativo.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCyber Italia
Aggiornamento attacco hacker della Sapienza. Il comunicato agli studenti dal prorettore
Redazione RHC - 02/02/2026

Poco fa, l’Università La Sapienza intorno alle 12:28 ha confermato di essere stata vittima di un attacco informatico che ha costretto al blocco temporaneo di tutti i sistemi digitali dell’ateneo. A darne informazione è il…

Immagine del sitoCybercrime
31,4 Tbps: quando il DDoS diventa “meteo” e l’IoT fa da grandine
Sandro Sana - 02/02/2026

Se vi state chiedendo quanto sia grande 31,4 terabit al secondo, la risposta pratica è: abbastanza da far sembrare “un problema di rete” quello che in realtà è un problema di ecosistema. Perché il punto…

Immagine del sitoCyber Italia
Sapienza paralizzata da un attacco hacker: perché l’università ha spento tutto
Redazione RHC - 02/02/2026

La mattina di lunedì 2 febbraio si è aperta con una notizia inattesa per studenti, docenti e personale della Sapienza Università di Roma. I principali servizi digitali dell’ateneo sono risultati improvvisamente irraggiungibili, generando incertezza e…

Immagine del sitoCyber News
BETTI RHC: il fumetto che educa alla cybersecurity. Esce il 4 e 5 episodio
Andrea Gioia Lomoro - 02/02/2026

BETTI RHC è un progetto editoriale e culturale ideato da Red Hot Cyber, realtà italiana punto di riferimento nel panorama della cybersecurity e della divulgazione tecnologica. Non si tratta di un semplice fumetto, ma di…

Immagine del sitoCyber News
E se domani gli USA spegnessero il cloud?  L’UE non ha un piano e legifera pensando poco
Marcello Filacchioni - 02/02/2026

Mentre il cloud è diventato il cuore dell’economia digitale, l’Unione europea si trova davanti a una scelta storica: trasformare la certificazione cloud in uno strumento di sovranità o limitarsi ad un semplice controllo tecnico. Il…