Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Nightshade: lo Strumento che protegge il copyright avvelenando le AI generative. Ottiene 250.000 Download in 5 Giorni

2 Febbraio 2024 08:54

Come abbiamo visto in diversi articoli, l’intelligenza artificiale può essere avvelenata fornendo degli input errati a livello di dataset. Questa modalità di azione viene anche utilizzata per scopi fraudolenti, come visto negli attacchi di avvelenamento dei dati.

Nightshade, è uno strumento gratuito creato dai ricercatori dell’Università di Chicago per impedire l’utilizzo non consensuale di opere d’arte per l’addestramento di modelli di intelligenza artificiale. Funziona proprio in questo modo, alterando le immagini ed introducendo del “rumore”, capace di disorientare le IA. Dato che le IA prendono come input le immagini reperite dal web, ecco che possono essere “avvelenate” da dati non conformi.

L’applicazione ha registrato un successo strepitoso con 250.000 download nei primi cinque giorni dalla sua pubblicazione.

250.000 Download in 5 Giorni

Ben Zhao, leader del progetto e professore di informatica, ha espresso sorpresa e soddisfazione per l’entusiasmo dimostrato dalla comunità artistica: “Mi aspettavo un grande interesse, ma la risposta è andata oltre ogni immaginazione.”

Il numero di download indica la preoccupazione diffusa tra gli artisti per l’uso improprio del loro lavoro da parte di aziende e sviluppatori di AI. Secondo il Bureau of Labor Statistics, negli Stati Uniti ci sono oltre 2,67 milioni di artisti, e il bacino di utenti di Nightshade è probabilmente ancora più ampio, con download provenienti da tutto il mondo.

Come funziona Nightshade

Nightshade “avvelena” i modelli di intelligenza artificiale alterando le opere d’arte a livello di pixel, rendendole irriconoscibili per gli algoritmi di apprendimento automatico. In questo modo, l’addestramento su immagini “ombreggiate” produce risultati errati e inutilizzabili.

Zhao e il suo team, sotto il nome di The Glaze Project, hanno già rilasciato un altro strumento, Glaze, che protegge lo stile di un artista mascherandolo agli algoritmi di AI. Il loro obiettivo è quello di fornire agli artisti gli strumenti necessari per difendere il proprio lavoro e controllarne l’utilizzo.

Il team sta lavorando a una versione combinata di Glaze e Nightshade, che dovrebbe essere disponibile entro un mese. Nel frattempo, i ricercatori incoraggiano gli artisti a utilizzare entrambi gli strumenti per una protezione completa.

Verso un futuro più aperto e trasparente

La diffusione di strumenti come Nightshade rappresenta un passo importante verso un futuro in cui l’intelligenza artificiale rispetta i diritti degli artisti e la loro creatività. La versione open source di Nightshade, prevista per il futuro, contribuirà a rendere la tecnologia ancora più accessibile e democratica.

Il successo di Nightshade dimostra la necessità di un dialogo aperto e trasparente tra artisti, sviluppatori di AI e policymaker per definire le regole di un’etica dell’intelligenza artificiale che valorizzi il lavoro creativo e tuteli i diritti di tutti.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…