
Due adolescenti di Miami, in Florida, sono stati processati per aver creato e distribuito false immagini di nudo dei loro coetanei utilizzando la tecnologia AI. I ragazzi di 13 e 14 anni hanno utilizzato un’applicazione di intelligenza artificiale senza nome per generare istantanee esplicite dei loro compagni di classe di 12 e 13 anni.
I giovani sono stati accusati di un crimine di terzo grado ai sensi di una legge della Florida del 2022 che criminalizza la distribuzione di immagini sessualmente esplicite (c.d. deepfake) senza il consenso della vittima. Si tratta del primo caso documentato di procedimento penale per un atto del genere.
I media locali hanno riportato l’accaduto dopo che la Pinecrest Cove Academy di Miami ha sospeso l’accusato il 6 dicembre. Il 22 dicembre gli adolescenti sono stati arrestati con l’accusa di aver distribuito materiale osceno.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I genitori delle vittime hanno chiesto che l’imputato fosse espulso dalla scuola. Una delle vittime ha ammesso di sentirsi “insultata e usata”. Nonostante la responsabilità penale, gli avvocati dubitano dell’opportunità di misure severe per i minorenni, sottolineando la necessità di un effetto deterrente, ma non punitivo.
Sebbene quasi tutti gli stati abbiano leggi contro la pornografia per vendetta, pochi regolamentano direttamente la creazione di contenuti intimi utilizzando l’intelligenza artificiale. Ad esempio, il dipartimento di polizia di Beverly Hills sta indagando su un caso simile in cui gli studenti hanno condiviso immagini deepfake di nudo dei loro compagni di classe. Tuttavia, la legislazione locale non affronta direttamente la questione delle immagini generate dall’intelligenza artificiale.
Il problema delle immagini esplicite create con le AI ha colpito anche le celebrità. In precedenza, il social network X era stato costretto a limitare le ricerche al nome Taylor Swift a causa dell’afflusso di fotografie oscene della cantante generate dalle reti neurali.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CyberpoliticaIl CEO di Cloudflare, Matthew Prince, ha minacciato di chiudere le attività dell’azienda in Italia dopo che l’autorità di regolamentazione delle telecomunicazioni del Paese le ha imposto una multa pari al doppio del suo fatturato…
CybercrimeUn’analisi approfondita sulle connessioni infrastrutturali del gruppo emergente Orion Leaks e il suo possibile legame con l’ex gigante LockBit RaaS. Negli ultimi mesi, a seguito dell’Operazione Cronos, condotta da agenzie internazionali per smantellare l’infrastruttura e…
CybercrimeNegli ultimi mesi si sta parlando sempre più spesso di un cambio di paradigma nel cybercrime. Quello che per anni è stato percepito come un ecosistema prevalentemente digitale — fatto di frodi, furti di identità,…
CybercrimeA volte, per disattivare la protezione di Windows non è necessario attaccare direttamente l’antivirus. È sufficiente impedirne il corretto avvio. Un ricercatore che si fa chiamare Two Seven One Three (TwoSevenOneT) ha pubblicato su GitHub…
CulturaQuando la sicurezza fallisce prima ancora dell’errore Questo testo nasce dall’esperienza diretta, maturata osservando nel tempo numerosi casi di frodi e incidenti informatici, in cui il fattore umano nella sicurezza è stato l’elemento che ha…