
Redazione RHC : 12 Novembre 2024 07:36
Il Dipartimento di Giustizia degli Stati Uniti ha avviato due procedimenti penali contro gli autori di immagini pornografiche infantili generate tramite tecnologia deepfake. L’agenzia ha annunciato un ampliamento della responsabilità per produttori e distributori di tali contenuti.
James Silver, capo della divisione Cybercrime e violazione della proprietà intellettuale del Dipartimento, ha dichiarato a Reuters che i procedimenti non si limiteranno ai due casi attuali. Silver ha espresso profonda preoccupazione per la crescente normalizzazione dell’uso dell’intelligenza artificiale generativa nella creazione di contenuti pornografici, inclusi quelli che coinvolgono minori, e ha sottolineato l’intento di combattere questo fenomeno.
Tuttavia, il primo caso non ha alleviato le preoccupazioni della comunità giuridica riguardo alla possibilità che le condanne possano essere impugnate.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Inoltre, i tribunali non sono ancora pronti a esaminare casi in cui gli imputati utilizzano intelligenza artificiale. In almeno due situazioni, i distributori di tali immagini hanno evitato responsabilità legali o hanno ricevuto accuse significativamente più leggere, sostenendo che le immagini non rappresentassero persone specifiche.
Le forze dell’ordine e le organizzazioni per la protezione dei diritti dei bambini temono che la diffusione di materiali generati dall’intelligenza artificiale possa fungere da maschera per reati di violenza contro minori reali. Il Centro Nazionale per i Bambini Scomparsi e Sfruttati ha registrato una media di circa 450 segnalazioni relative a immagini generate dall’IA coinvolgenti bambini, mentre il numero totale di richieste ricevute supera i 3 milioni, come riportato dal consulente legale Iyota Souras.
Rebecca Portnoff, vicepresidente dell’organizzazione per i diritti umani Thorn, ha avvertito che il problema non può essere considerato esclusivamente come una questione futura, altrimenti rischia di sfuggire al controllo. È fondamentale intervenire su più fronti, influenzando sia gli sviluppatori di sistemi di generazione di immagini sia il sistema delle forze dell’ordine per affrontare questa crescente minaccia.
Redazione
Una vulnerabilità critica, monitorata con il codice CVE-2025-59719, riguarda le linee di prodotti FortiOS, FortiWeb, FortiProxy e FortiSwitchManager è stata segnalata da Fortinet tramite un avviso d...

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...

Siamo connessi, connessi a tutto, iperconnessi. La nostra vita professionale e sociale è scandita da deadline strettissime e da un’asticella che viene continuamente alzata, dobbiamo spingere. Ci im...

Il Centro Congressi Frentani ospiterà il 12 dicembre la conferenza “Cybercrime, Artificial Intelligence & Digital Forensics”, l’evento annuale organizzato da IISFA – Associazione Italiana...

Un nuovo post pubblicato poche ore fa sul forum underground Exploit rivela l’ennesima offerta criminale legata alla vendita di accessi a siti compromessi. L’inserzionista, un utente storico del fo...