Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Le AI alimentano gli abusi sui bambini. La forze dell’ordine fanno difficoltà a comprendere quali immagini siano reali

Redazione RHC : 3 Luglio 2023 10:10

Gli esperti di protezione dei minori affermano di un grande aumento di “immagini di abusi sessuali su minori generate dall’intelligenza artificialeche vengono create e condivise sui forum oscuri di pedofili, riferisce il Washington Post.

Questa “esplosione” di immagini spaventosamente realistiche potrebbe aiutare ad attirare bambini veri in una trappola e rendere più difficile per le forze dell’ordine trovare vittime reali, hanno detto gli esperti.

Trovare chi crea questi materiali è già come “cercare un ago nel pagliaio”, ha affermato Rebecca Portnoff, direttrice dei dati scientifici presso l’organizzazione no profit per la difesa dei bambini Thorn. Le forze dell’ordine saranno ora più indietro nelle loro indagini a causa della necessità di determinare se i materiali sono reali o meno.

Prova Gratuitamente Business Log! L'Adaptive SOC italiano

Proteggi la tua azienda e ottimizza il tuo lavoro grazie al SOC di Business Log, il software leader per audit, log management e cybersicurezza realizzato in Italia. Business Log garantisce:

  • Conformità a NIS2, GDPR e ISO 27001
  • Analisi avanzata e prevenzione del dossieraggio
  • Semplice da installare, potente da usare

  • Scarica ora la versione di prova gratuita per 30 giorni e scopri come Business Log può rivoluzionare la tua gestione dei log e la sicurezza IT!

    Promo Corso CTI

    I contenuti dannosi generati dall’intelligenza artificiale possono anche danneggiare nuovamente vittime reali le cui immagini del passato sono state utilizzate per addestrare modelli di intelligenza artificiale a creare immagini false.

    Sia le forze dell’ordine che gli esperti di protezione dei minori riferiscono che le immagini generate in questo modo vengono sempre più spesso promosse su forum underground per pedofili, con molti utenti di Internet che vedono questo contenuto come un’alternativa al traffico di materiale pedopornografico illegale (CSAM).

    Secondo ActiveFence, che sviluppa strumenti di fiducia e sicurezza per piattaforme online e siti di streaming, circa l’80% dei 3000 utenti che hanno partecipato ad sondaggio in un forum underground ha affermato di “aver utilizzato o saputo che altre persone hanno utilizzato strumenti di intelligenza artificiale per creare immagini di abusi sessuali su minori”.

    Stability AI, la cui rete neurale è probabilmente utilizzata per generare tali contenuti, ha dichiarato al Washington Post che vieta la creazione di materiale osceno, collabora con le forze dell’ordine per trovare trasgressori e usa delle sue politiche per rimuove materiale esplicito dai suoi dati di addestramento per prevenire tentativi futuri di creare questo tipo di contenuto.

    Tuttavia, il Washington Post ha abilmente ribattuto che tali meccanismi di protezione non sono perfetti, perché chiunque può scaricare Stable Diffusion sul proprio computer e usarlo come vuole. Eventuali filtri possono essere facilmente aggirati con la banale aggiunta di poche righe di codice, su cui sono già state scritte molte guide su Internet.

    Mentre alcuni utenti che utilizzano l’intelligenza artificiale per generare immagini, e persino alcuni analisti legali, ritengono che tali contenuti non siano potenzialmente illegali perché i bambini reali non vengono danneggiati nel corso della loro produzione, alcuni funzionari del Dipartimento di giustizia degli Stati Uniti (DoJ) riferiscono che le immagini artificiali che sessualizzano i minori continuano a violare le leggi federali sulla protezione dei minori.

    All’inizio di questo mese, l’FBI ha anche emesso un avviso secondo cui i criminali informatici possono creare contenuti sintetici (deepfake) basati su contenuti ordinari compresi bambini minorenni che con adulti.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.