Redazione RHC : 10 Dicembre 2023 15:19
Recentemente, sempre più utenti hanno fatto ricorso ad app e siti Web che sfruttano l’intelligenza artificiale per creare false immagini di persone nude. Come mostrano i dati, questi servizi consentono di caricare una foto di una persona vestita, dopo di che l’intelligenza artificiale genera una sua immagine nuda.
Secondo la società di analisi Graphika, un gruppo di 34 siti web di questo tipo ha attirato più di 24 milioni di visitatori unici nel solo mese di settembre. Lo studio, pubblicato nel rapporto “A Revealing Picture” di dicembre, afferma inoltre che il numero di collegamenti spam a questi siti e app è aumentato di oltre il 2.000% da inizio anno su piattaforme tra cui X e Reddit.
Inoltre, è stato rivelato che più di 53 gruppi Telegram che forniscono accesso a tali servizi hanno almeno 1 milione di utenti.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I ricercatori sottolineano che la crescente popolarità e disponibilità dei servizi di stripping probabilmente porterà ad un aumento dei danni online, tra cui la creazione e la distribuzione di immagini di nudo non richieste, campagne di molestie mirate, sextortion e la produzione di materiale pedopornografico.
Le app Deepfake invece, che alterano i video digitali per far apparire una persona nuda, esistono da diversi anni. Di solito vengono creati senza il consenso delle persone raffigurate e vengono spesso utilizzati contro celebrità e personaggi di Internet.
Ad esempio, a febbraio, la streamer di Twitch QTCinderella è diventata vittima di falsi video porno distribuiti su Internet.
Dopo aver pubblicato uno screenshot di uno dei video, ha detto: “La quantità di dismorfia che ho provato dopo aver visto queste foto mi ha distrutto. Questo è molto più di una semplice violazione dei confini personali“.
A settembre, in diverse scuole spagnole sono state diffuse immagini false di nudo di oltre 20 ragazze. Le foto sono state elaborate utilizzando un’applicazione basata sull’intelligenza artificiale, ha riferito El País.
le piante infestanti, se non vengono estirpate dalle radici rinasceranno, molto più vigorose di prima. Questo è il cybercrime e questa è la nuova rinascita, la quinta in assoluto dalle ...
Microsoft ha avviato un’indagine interna per chiarire se una fuga di informazioni riservate dal programma Microsoft Active Protections Program (MAPP) abbia permesso a hacker cinesi sponsorizzat...
Il 13 giugno 2025 Israele bombarda un centinaio di obiettivi militari e gli impianti nucleari iraniani di Natanz, Fordow e Isfahan in un raid calcolato nei minimi dettagli. L’operazione “...
Sasha Levin, sviluppatore di kernel Linux di lunga data, che lavora presso NVIDIA e in precedenza presso Google e Microsoft, ha proposto di aggiungere alla documentazione del kernel regole formali per...
Google sta trasformando il suo motore di ricerca in una vetrina per l’intelligenza artificiale, e questo potrebbe significare un disastro per l’intera economia digitale. Secondo un nuovo...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006