Redazione RHC : 27 Novembre 2023 16:37
Gli scolari del Regno Unito utilizzano l’intelligenza artificiale (AI) per creare immagini indecenti dei loro coetanei, sollevando allarme tra gli esperti di protezione dell’infanzia e di tecnologia. Gli esperti segnalano un numero crescente di casi di studenti che utilizzano l’intelligenza artificiale per generare immagini legalmente riconosciute come materiale di abuso sessuale infantile (CSAM).
Il Safer Internet Centre del Regno Unito (UKSIC) e la Internet Watch Foundation (IWF) hanno sottolineato che la qualità delle immagini generate è così elevata da essere paragonabili alle fotografie professionali. I funzionari dell’agenzia hanno espresso preoccupazione per il fotorealismo delle immagini, sottolineando che alcune di esse potrebbero essere identificate come raffiguranti vittime di violenza sessuale.
Di particolare preoccupazione è la possibilità che tali immagini vengano distribuite online, rendendole accessibili a estranei e predatori sessuali. L’UKSIC chiede consapevolezza sul potenziale uso improprio della tecnologia di generazione di immagini.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
L’UKSIC, l’autorità di vigilanza sulla protezione dei minori, chiede alle scuole di intensificare urgentemente le misure per bloccare il materiale CSAM. L’UKSIC sottolinea l’importanza di anticipare l’uso dannoso delle nuove tecnologie come i generatori di immagini basati sull’intelligenza artificiale, soprattutto perché i bambini potrebbero non essere consapevoli del danno che possono causare.
Nel Regno Unito è illegale creare, possedere e distribuire immagini di sfruttamento sessuale minorile, comprese quelle generate dall’intelligenza artificiale. La regola vale anche per le immagini da cartone animato o meno realistiche.
Il mese scorso la Internet Watch Foundation ha avvertito che le immagini di sfruttamento sessuale minorile generate dall’intelligenza artificiale potrebbero travolgere Internet. Molte immagini sono così realistiche che è difficile anche per gli analisti possano distinguerle dalla realtà. La situazione evidenzia la gravità del problema e la necessità di un’azione immediata per risolverlo.
In precedenza, la National Crime Agency (NCA) della Gran Bretagna aveva messo in guardia dalla diffusione di immagini CSAM generate. Questa tendenza normalizza la pedofilia e i comportamenti inaccettabili nei confronti dei bambini. L’agenzia stima che circa 830.000 adulti, ovvero l’1,6% della popolazione adulta del Regno Unito, rappresentano un rischio sessuale per i bambini. Questo numero è 10 volte il totale della popolazione che sconta pene nelle carceri del paese.
Inoltre, gli esperti di protezione dell’infanzia affermano di non poter combattere le migliaia di “immagini di abusi sessuali su minori generate dall’intelligenza artificiale” che vengono create e condivise facilmente e rapidamente sui forum oscuri di pedofilia.
Il 24 agosto 2025 ha segnato i 30 anni dal lancio di Windows 95, il primo sistema operativo consumer a 32 bit di Microsoft destinato al mercato di massa, che ha rivoluzionato in modo significativo il ...
All’inizio del 2025 un’organizzazione italiana si è trovata vittima di un’intrusione subdola. Nessun exploit clamoroso, nessun attacco da manuale. A spalancare la porta agli ...
Nella notte del 19 agosto l’infrastruttura informatica dell’Università Pontificia Salesiana (UPS) è stata vittima di un grave attacco informatico che ha reso temporaneamente in...
APT36, noto anche come Transparent Tribe, ha intensificato una nuova campagna di spionaggio contro organizzazioni governative e di difesa in India. Il gruppo, legato al Pakistan, è attivo almeno ...
Nasce una nuova stella all’interno dell’ecosistema di Red Hot Cyber, un progetto pianificato da tempo che oggi vede finalmente la sua realizzazione. Si tratta di un laboratorio allȁ...