Recentemente, sempre più utenti hanno fatto ricorso ad app e siti Web che sfruttano l’intelligenza artificiale per creare false immagini di persone nude. Come mostrano i dati, questi servizi consentono di caricare una foto di una persona vestita, dopo di che l’intelligenza artificiale genera una sua immagine nuda.
Secondo la società di analisi Graphika, un gruppo di 34 siti web di questo tipo ha attirato più di 24 milioni di visitatori unici nel solo mese di settembre. Lo studio, pubblicato nel rapporto “A Revealing Picture” di dicembre, afferma inoltre che il numero di collegamenti spam a questi siti e app è aumentato di oltre il 2.000% da inizio anno su piattaforme tra cui X e Reddit.
Inoltre, è stato rivelato che più di 53 gruppi Telegram che forniscono accesso a tali servizi hanno almeno 1 milione di utenti.
I ricercatori sottolineano che la crescente popolarità e disponibilità dei servizi di stripping probabilmente porterà ad un aumento dei danni online, tra cui la creazione e la distribuzione di immagini di nudo non richieste, campagne di molestie mirate, sextortion e la produzione di materiale pedopornografico.
Le app Deepfake invece, che alterano i video digitali per far apparire una persona nuda, esistono da diversi anni. Di solito vengono creati senza il consenso delle persone raffigurate e vengono spesso utilizzati contro celebrità e personaggi di Internet.
Ad esempio, a febbraio, la streamer di Twitch QTCinderella è diventata vittima di falsi video porno distribuiti su Internet.
Dopo aver pubblicato uno screenshot di uno dei video, ha detto: “La quantità di dismorfia che ho provato dopo aver visto queste foto mi ha distrutto. Questo è molto più di una semplice violazione dei confini personali“.
A settembre, in diverse scuole spagnole sono state diffuse immagini false di nudo di oltre 20 ragazze. Le foto sono state elaborate utilizzando un’applicazione basata sull’intelligenza artificiale, ha riferito El País.