Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Le AI alimentano gli abusi sui bambini. La forze dell’ordine fanno difficoltà a comprendere quali immagini siano reali

Le AI alimentano gli abusi sui bambini. La forze dell’ordine fanno difficoltà a comprendere quali immagini siano reali

3 Luglio 2023 10:10

Gli esperti di protezione dei minori affermano di un grande aumento di “immagini di abusi sessuali su minori generate dall’intelligenza artificialeche vengono create e condivise sui forum oscuri di pedofili, riferisce il Washington Post.

Questa “esplosione” di immagini spaventosamente realistiche potrebbe aiutare ad attirare bambini veri in una trappola e rendere più difficile per le forze dell’ordine trovare vittime reali, hanno detto gli esperti.

Trovare chi crea questi materiali è già come “cercare un ago nel pagliaio”, ha affermato Rebecca Portnoff, direttrice dei dati scientifici presso l’organizzazione no profit per la difesa dei bambini Thorn. Le forze dell’ordine saranno ora più indietro nelle loro indagini a causa della necessità di determinare se i materiali sono reali o meno.

I contenuti dannosi generati dall’intelligenza artificiale possono anche danneggiare nuovamente vittime reali le cui immagini del passato sono state utilizzate per addestrare modelli di intelligenza artificiale a creare immagini false.

Sia le forze dell’ordine che gli esperti di protezione dei minori riferiscono che le immagini generate in questo modo vengono sempre più spesso promosse su forum underground per pedofili, con molti utenti di Internet che vedono questo contenuto come un’alternativa al traffico di materiale pedopornografico illegale (CSAM).

Secondo ActiveFence, che sviluppa strumenti di fiducia e sicurezza per piattaforme online e siti di streaming, circa l’80% dei 3000 utenti che hanno partecipato ad sondaggio in un forum underground ha affermato di “aver utilizzato o saputo che altre persone hanno utilizzato strumenti di intelligenza artificiale per creare immagini di abusi sessuali su minori”.

Stability AI, la cui rete neurale è probabilmente utilizzata per generare tali contenuti, ha dichiarato al Washington Post che vieta la creazione di materiale osceno, collabora con le forze dell’ordine per trovare trasgressori e usa delle sue politiche per rimuove materiale esplicito dai suoi dati di addestramento per prevenire tentativi futuri di creare questo tipo di contenuto.

Tuttavia, il Washington Post ha abilmente ribattuto che tali meccanismi di protezione non sono perfetti, perché chiunque può scaricare Stable Diffusion sul proprio computer e usarlo come vuole. Eventuali filtri possono essere facilmente aggirati con la banale aggiunta di poche righe di codice, su cui sono già state scritte molte guide su Internet.

Mentre alcuni utenti che utilizzano l’intelligenza artificiale per generare immagini, e persino alcuni analisti legali, ritengono che tali contenuti non siano potenzialmente illegali perché i bambini reali non vengono danneggiati nel corso della loro produzione, alcuni funzionari del Dipartimento di giustizia degli Stati Uniti (DoJ) riferiscono che le immagini artificiali che sessualizzano i minori continuano a violare le leggi federali sulla protezione dei minori.

All’inizio di questo mese, l’FBI ha anche emesso un avviso secondo cui i criminali informatici possono creare contenuti sintetici (deepfake) basati su contenuti ordinari compresi bambini minorenni che con adulti.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…