
Redazione RHC : 12 Marzo 2024 08:17
Due adolescenti di Miami, in Florida, sono stati processati per aver creato e distribuito false immagini di nudo dei loro coetanei utilizzando la tecnologia AI. I ragazzi di 13 e 14 anni hanno utilizzato un’applicazione di intelligenza artificiale senza nome per generare istantanee esplicite dei loro compagni di classe di 12 e 13 anni.
I giovani sono stati accusati di un crimine di terzo grado ai sensi di una legge della Florida del 2022 che criminalizza la distribuzione di immagini sessualmente esplicite (c.d. deepfake) senza il consenso della vittima. Si tratta del primo caso documentato di procedimento penale per un atto del genere.
I media locali hanno riportato l’accaduto dopo che la Pinecrest Cove Academy di Miami ha sospeso l’accusato il 6 dicembre. Il 22 dicembre gli adolescenti sono stati arrestati con l’accusa di aver distribuito materiale osceno.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I genitori delle vittime hanno chiesto che l’imputato fosse espulso dalla scuola. Una delle vittime ha ammesso di sentirsi “insultata e usata”. Nonostante la responsabilità penale, gli avvocati dubitano dell’opportunità di misure severe per i minorenni, sottolineando la necessità di un effetto deterrente, ma non punitivo.
Sebbene quasi tutti gli stati abbiano leggi contro la pornografia per vendetta, pochi regolamentano direttamente la creazione di contenuti intimi utilizzando l’intelligenza artificiale. Ad esempio, il dipartimento di polizia di Beverly Hills sta indagando su un caso simile in cui gli studenti hanno condiviso immagini deepfake di nudo dei loro compagni di classe. Tuttavia, la legislazione locale non affronta direttamente la questione delle immagini generate dall’intelligenza artificiale.
Il problema delle immagini esplicite create con le AI ha colpito anche le celebrità. In precedenza, il social network X era stato costretto a limitare le ricerche al nome Taylor Swift a causa dell’afflusso di fotografie oscene della cantante generate dalle reti neurali.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...

La recente edizione 2025.4 di Kali Linux è stata messa a disposizione del pubblico, introducendo significative migliorie per quanto riguarda gli ambienti desktop GNOME, KDE e Xfce. D’ora in poi, Wa...