Due adolescenti di Miami, in Florida, sono stati processati per aver creato e distribuito false immagini di nudo dei loro coetanei utilizzando la tecnologia AI. I ragazzi di 13 e 14 anni hanno utilizzato un’applicazione di intelligenza artificiale senza nome per generare istantanee esplicite dei loro compagni di classe di 12 e 13 anni.
I giovani sono stati accusati di un crimine di terzo grado ai sensi di una legge della Florida del 2022 che criminalizza la distribuzione di immagini sessualmente esplicite (c.d. deepfake) senza il consenso della vittima. Si tratta del primo caso documentato di procedimento penale per un atto del genere.
I media locali hanno riportato l’accaduto dopo che la Pinecrest Cove Academy di Miami ha sospeso l’accusato il 6 dicembre. Il 22 dicembre gli adolescenti sono stati arrestati con l’accusa di aver distribuito materiale osceno.
I genitori delle vittime hanno chiesto che l’imputato fosse espulso dalla scuola. Una delle vittime ha ammesso di sentirsi “insultata e usata”. Nonostante la responsabilità penale, gli avvocati dubitano dell’opportunità di misure severe per i minorenni, sottolineando la necessità di un effetto deterrente, ma non punitivo.
Sebbene quasi tutti gli stati abbiano leggi contro la pornografia per vendetta, pochi regolamentano direttamente la creazione di contenuti intimi utilizzando l’intelligenza artificiale. Ad esempio, il dipartimento di polizia di Beverly Hills sta indagando su un caso simile in cui gli studenti hanno condiviso immagini deepfake di nudo dei loro compagni di classe. Tuttavia, la legislazione locale non affronta direttamente la questione delle immagini generate dall’intelligenza artificiale.
Il problema delle immagini esplicite create con le AI ha colpito anche le celebrità. In precedenza, il social network X era stato costretto a limitare le ricerche al nome Taylor Swift a causa dell’afflusso di fotografie oscene della cantante generate dalle reti neurali.