
Gli esperti di protezione dei minori affermano di un grande aumento di “immagini di abusi sessuali su minori generate dall’intelligenza artificiale” che vengono create e condivise sui forum oscuri di pedofili, riferisce il Washington Post.
Questa “esplosione” di immagini spaventosamente realistiche potrebbe aiutare ad attirare bambini veri in una trappola e rendere più difficile per le forze dell’ordine trovare vittime reali, hanno detto gli esperti.
Trovare chi crea questi materiali è già come “cercare un ago nel pagliaio”, ha affermato Rebecca Portnoff, direttrice dei dati scientifici presso l’organizzazione no profit per la difesa dei bambini Thorn. Le forze dell’ordine saranno ora più indietro nelle loro indagini a causa della necessità di determinare se i materiali sono reali o meno.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I contenuti dannosi generati dall’intelligenza artificiale possono anche danneggiare nuovamente vittime reali le cui immagini del passato sono state utilizzate per addestrare modelli di intelligenza artificiale a creare immagini false.
Sia le forze dell’ordine che gli esperti di protezione dei minori riferiscono che le immagini generate in questo modo vengono sempre più spesso promosse su forum underground per pedofili, con molti utenti di Internet che vedono questo contenuto come un’alternativa al traffico di materiale pedopornografico illegale (CSAM).
Secondo ActiveFence, che sviluppa strumenti di fiducia e sicurezza per piattaforme online e siti di streaming, circa l’80% dei 3000 utenti che hanno partecipato ad sondaggio in un forum underground ha affermato di “aver utilizzato o saputo che altre persone hanno utilizzato strumenti di intelligenza artificiale per creare immagini di abusi sessuali su minori”.
Stability AI, la cui rete neurale è probabilmente utilizzata per generare tali contenuti, ha dichiarato al Washington Post che vieta la creazione di materiale osceno, collabora con le forze dell’ordine per trovare trasgressori e usa delle sue politiche per rimuove materiale esplicito dai suoi dati di addestramento per prevenire tentativi futuri di creare questo tipo di contenuto.
Tuttavia, il Washington Post ha abilmente ribattuto che tali meccanismi di protezione non sono perfetti, perché chiunque può scaricare Stable Diffusion sul proprio computer e usarlo come vuole. Eventuali filtri possono essere facilmente aggirati con la banale aggiunta di poche righe di codice, su cui sono già state scritte molte guide su Internet.
Mentre alcuni utenti che utilizzano l’intelligenza artificiale per generare immagini, e persino alcuni analisti legali, ritengono che tali contenuti non siano potenzialmente illegali perché i bambini reali non vengono danneggiati nel corso della loro produzione, alcuni funzionari del Dipartimento di giustizia degli Stati Uniti (DoJ) riferiscono che le immagini artificiali che sessualizzano i minori continuano a violare le leggi federali sulla protezione dei minori.
All’inizio di questo mese, l’FBI ha anche emesso un avviso secondo cui i criminali informatici possono creare contenuti sintetici (deepfake) basati su contenuti ordinari compresi bambini minorenni che con adulti.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeUn nuovo report pubblicato dall’Huntress Tactical Response Team documenta un’intrusione estremamente sofisticata individuata nel dicembre 2025, nella quale un attore avanzato è riuscito a compromettere un’infrastruttura VMware ESXi sfruttando una VM escape, ovvero l’evasione da…
CybercrimeIn un ecosistema digitale sempre più interconnesso, le aziende dipendono da reti di fornitori e partner per operare in modo efficiente. Tuttavia, questa interdipendenza ha trasformato la supply chain in un nuovo perimetro critico della…
CybercrimeUn messaggio di cancellazione da Booking.com con una penale elevata sembra una pratica commerciale tipica di hotel e appartamenti. Ma è proprio questo tipo di email a dare il via a una nuova campagna malware,…
HackingUn nuovo script open source consente agli utenti di Windows 11 di disattivare in modo esteso le funzionalità di intelligenza artificiale integrate nel sistema operativo. Il progetto, sviluppato da Zoicware, si chiama RemoveWindowsAI e nasce…
InnovazioneQuando si parla di sicurezza applicativa, il problema raramente è uno solo. È quasi sempre una catena di piccoli difetti, scelte sbagliate e controlli mancanti che, sommati, aprono la strada a incidenti gravi. È anche…