Redazione RHC : 2 Febbraio 2024 08:54
Come abbiamo visto in diversi articoli, l’intelligenza artificiale può essere avvelenata fornendo degli input errati a livello di dataset. Questa modalità di azione viene anche utilizzata per scopi fraudolenti, come visto negli attacchi di avvelenamento dei dati.
Nightshade, è uno strumento gratuito creato dai ricercatori dell’Università di Chicago per impedire l’utilizzo non consensuale di opere d’arte per l’addestramento di modelli di intelligenza artificiale. Funziona proprio in questo modo, alterando le immagini ed introducendo del “rumore”, capace di disorientare le IA. Dato che le IA prendono come input le immagini reperite dal web, ecco che possono essere “avvelenate” da dati non conformi.
L’applicazione ha registrato un successo strepitoso con 250.000 download nei primi cinque giorni dalla sua pubblicazione.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Ben Zhao, leader del progetto e professore di informatica, ha espresso sorpresa e soddisfazione per l’entusiasmo dimostrato dalla comunità artistica: “Mi aspettavo un grande interesse, ma la risposta è andata oltre ogni immaginazione.”
Il numero di download indica la preoccupazione diffusa tra gli artisti per l’uso improprio del loro lavoro da parte di aziende e sviluppatori di AI. Secondo il Bureau of Labor Statistics, negli Stati Uniti ci sono oltre 2,67 milioni di artisti, e il bacino di utenti di Nightshade è probabilmente ancora più ampio, con download provenienti da tutto il mondo.
Nightshade “avvelena” i modelli di intelligenza artificiale alterando le opere d’arte a livello di pixel, rendendole irriconoscibili per gli algoritmi di apprendimento automatico. In questo modo, l’addestramento su immagini “ombreggiate” produce risultati errati e inutilizzabili.
Zhao e il suo team, sotto il nome di The Glaze Project, hanno già rilasciato un altro strumento, Glaze, che protegge lo stile di un artista mascherandolo agli algoritmi di AI. Il loro obiettivo è quello di fornire agli artisti gli strumenti necessari per difendere il proprio lavoro e controllarne l’utilizzo.
Il team sta lavorando a una versione combinata di Glaze e Nightshade, che dovrebbe essere disponibile entro un mese. Nel frattempo, i ricercatori incoraggiano gli artisti a utilizzare entrambi gli strumenti per una protezione completa.
La diffusione di strumenti come Nightshade rappresenta un passo importante verso un futuro in cui l’intelligenza artificiale rispetta i diritti degli artisti e la loro creatività. La versione open source di Nightshade, prevista per il futuro, contribuirà a rendere la tecnologia ancora più accessibile e democratica.
Il successo di Nightshade dimostra la necessità di un dialogo aperto e trasparente tra artisti, sviluppatori di AI e policymaker per definire le regole di un’etica dell’intelligenza artificiale che valorizzi il lavoro creativo e tuteli i diritti di tutti.
1° Maggio, un giorno per onorare chi lavora, chi lotta per farlo in modo dignitoso e chi, troppo spesso, perde la vita mentre svolge la propria mansione. Nel 2025, l’Italia continua a pian...
Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...
Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...
Le backdoor come sappiamo sono ovunque e qualora presenti possono essere utilizzate sia da chi le ha richieste ma anche a vantaggio di chi le ha scoperte e questo potrebbe essere un caso emblematico s...
Il 25 febbraio 2025 WindTre ha rilevato un accesso non autorizzato ai sistemi informatici utilizzati dai propri rivenditori. L’intrusione, riconosciuta come un’azione malevola, è st...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006