Redazione RHC : 2 Febbraio 2024 08:54
Come abbiamo visto in diversi articoli, l’intelligenza artificiale può essere avvelenata fornendo degli input errati a livello di dataset. Questa modalità di azione viene anche utilizzata per scopi fraudolenti, come visto negli attacchi di avvelenamento dei dati.
Nightshade, è uno strumento gratuito creato dai ricercatori dell’Università di Chicago per impedire l’utilizzo non consensuale di opere d’arte per l’addestramento di modelli di intelligenza artificiale. Funziona proprio in questo modo, alterando le immagini ed introducendo del “rumore”, capace di disorientare le IA. Dato che le IA prendono come input le immagini reperite dal web, ecco che possono essere “avvelenate” da dati non conformi.
L’applicazione ha registrato un successo strepitoso con 250.000 download nei primi cinque giorni dalla sua pubblicazione.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Ben Zhao, leader del progetto e professore di informatica, ha espresso sorpresa e soddisfazione per l’entusiasmo dimostrato dalla comunità artistica: “Mi aspettavo un grande interesse, ma la risposta è andata oltre ogni immaginazione.”
Il numero di download indica la preoccupazione diffusa tra gli artisti per l’uso improprio del loro lavoro da parte di aziende e sviluppatori di AI. Secondo il Bureau of Labor Statistics, negli Stati Uniti ci sono oltre 2,67 milioni di artisti, e il bacino di utenti di Nightshade è probabilmente ancora più ampio, con download provenienti da tutto il mondo.
Nightshade “avvelena” i modelli di intelligenza artificiale alterando le opere d’arte a livello di pixel, rendendole irriconoscibili per gli algoritmi di apprendimento automatico. In questo modo, l’addestramento su immagini “ombreggiate” produce risultati errati e inutilizzabili.
Zhao e il suo team, sotto il nome di The Glaze Project, hanno già rilasciato un altro strumento, Glaze, che protegge lo stile di un artista mascherandolo agli algoritmi di AI. Il loro obiettivo è quello di fornire agli artisti gli strumenti necessari per difendere il proprio lavoro e controllarne l’utilizzo.
Il team sta lavorando a una versione combinata di Glaze e Nightshade, che dovrebbe essere disponibile entro un mese. Nel frattempo, i ricercatori incoraggiano gli artisti a utilizzare entrambi gli strumenti per una protezione completa.
La diffusione di strumenti come Nightshade rappresenta un passo importante verso un futuro in cui l’intelligenza artificiale rispetta i diritti degli artisti e la loro creatività. La versione open source di Nightshade, prevista per il futuro, contribuirà a rendere la tecnologia ancora più accessibile e democratica.
Il successo di Nightshade dimostra la necessità di un dialogo aperto e trasparente tra artisti, sviluppatori di AI e policymaker per definire le regole di un’etica dell’intelligenza artificiale che valorizzi il lavoro creativo e tuteli i diritti di tutti.
Nelle ultime ore, un’ondata massiccia di defacement ha preso di mira almeno una quindicina di siti web italiani. L’attacco è stato rivendicato dal threat actor xNot_RespondinGx (tea...
Nel mezzo degli intensi combattimenti tra Iran e Israele, il cyberspazio è stato coinvolto in una nuova fase di conflitto. Con il lancio dell’operazione israeliana Rising Lion, mirata all&...
Gli esperti avvertono che due nuove vulnerabilità di escalation dei privilegi locali possono essere sfruttate per ottenere privilegi di root sui sistemi che eseguono le distribuzioni Linux pi...
Come avrete ormai capito nella nostra Rubrica WiFi su RedHotCyber, abbiamo intrapreso un viaggio tecnico e pratico nel mondo delle reti wireless, partendo dalla loro origine storica fino ad arrivare a...
Due gravi vulnerabilità di sicurezza sono state individuate nei dispositivi NetScaler ADC e NetScaler Gateway (precedentemente noti come Citrix ADC e Gateway). Queste falle possono permettere a u...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006