
Steven Anderegg, 42 anni, residente a Holmen, nel Wisconsin, è stato arrestato per aver creato, distribuito e posseduto materiale pedopornografico (CSAM) creato utilizzando l’intelligenza artificiale generativa.
Anderegg avrebbe utilizzato il popolare modello di testo e grafica Stable Diffusion per creare immagini sessualmente esplicite che coinvolgevano minori.
“Molte di queste immagini raffiguravano minori nudi o parzialmente vestiti che esponevano o toccavano indecentemente i loro genitali o facevano atti sessuali con uomini”, ha affermato in una nota il Dipartimento di Giustizia degli Stati Uniti.
Le prove raccolte dai dispositivi di Anderegg mostrano che ha creato intenzionalmente immagini sessuali di bambini prima della pubertà utilizzando messaggi di testo sessualmente allusivi.
Anderegg ha comunicato anche con un ragazzo di 15 anni al quale ha inviato materiale sessualmente esplicito tramite Instagram. L’uomo ha anche spiegato all’adolescente come ha creato il CSAM e quali istruzioni testuali ha utilizzato.
Anderegg è stato identificato grazie a una “informazione del Centro nazionale per i bambini scomparsi e sfruttati (NCMEC) dopo che Instagram ha segnalato l’account di Anderegg per la distribuzione di queste immagini”.
“Il gran giurì federale nel distretto occidentale del Wisconsin ha restituito un atto il 15 maggio, accusando Anderegg di aver creato, distribuito e posseduto immagini visive oscene di minori coinvolti in comportamenti sessualmente espliciti e di aver trasmesso materiale osceno a un minore di età inferiore ai 16 anni”.
Se condannato, Anderegg rischia una pena massima di 70 anni di carcere, con una pena obbligatoria di cinque anni.
“La tecnologia può cambiare, ma il nostro impegno nella protezione dei bambini rimarrà lo stesso”, ha affermato il vice procuratore generale Lisa Monaco.
“Il Dipartimento di Giustizia perseguirà in modo aggressivo coloro che producono e distribuiscono materiale pedopornografico (CSAM), indipendentemente da come è stato creato. In poche parole, il materiale pedopornografico creato con l’intelligenza artificiale è ancora materiale pedopornografico e riterremo responsabili coloro che utilizzano l’intelligenza artificiale per creare immagini di bambini oscene, violente e sempre più fotorealistiche”, ha concluso Monaco.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…
Cyber NewsL’Italia si trova oggi davanti a una sfida digitale senza precedenti, dove la corsa all’innovazione non sempre coincide con una protezione adeguata delle infrastrutture. Pertanto la sicurezza dei sistemi connessi è diventata l’anello debole della…
Cyber NewsUna nuova vulnerabilità scoperta dal ricercatore italiano Alessandro Sgreccia (rainpwn) del gruppo HackerHood di Red Hot Cyber è stata scoperta nei dispositivi ZYXEL permette di ottenere accesso root attraverso una configurazione apparentemente innocua del servizio…