Redazione RHC : 2 Febbraio 2024 08:54
Come abbiamo visto in diversi articoli, l’intelligenza artificiale può essere avvelenata fornendo degli input errati a livello di dataset. Questa modalità di azione viene anche utilizzata per scopi fraudolenti, come visto negli attacchi di avvelenamento dei dati.
Nightshade, è uno strumento gratuito creato dai ricercatori dell’Università di Chicago per impedire l’utilizzo non consensuale di opere d’arte per l’addestramento di modelli di intelligenza artificiale. Funziona proprio in questo modo, alterando le immagini ed introducendo del “rumore”, capace di disorientare le IA. Dato che le IA prendono come input le immagini reperite dal web, ecco che possono essere “avvelenate” da dati non conformi.
L’applicazione ha registrato un successo strepitoso con 250.000 download nei primi cinque giorni dalla sua pubblicazione.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]()
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ben Zhao, leader del progetto e professore di informatica, ha espresso sorpresa e soddisfazione per l’entusiasmo dimostrato dalla comunità artistica: “Mi aspettavo un grande interesse, ma la risposta è andata oltre ogni immaginazione.”
Il numero di download indica la preoccupazione diffusa tra gli artisti per l’uso improprio del loro lavoro da parte di aziende e sviluppatori di AI. Secondo il Bureau of Labor Statistics, negli Stati Uniti ci sono oltre 2,67 milioni di artisti, e il bacino di utenti di Nightshade è probabilmente ancora più ampio, con download provenienti da tutto il mondo.
Nightshade “avvelena” i modelli di intelligenza artificiale alterando le opere d’arte a livello di pixel, rendendole irriconoscibili per gli algoritmi di apprendimento automatico. In questo modo, l’addestramento su immagini “ombreggiate” produce risultati errati e inutilizzabili.
Zhao e il suo team, sotto il nome di The Glaze Project, hanno già rilasciato un altro strumento, Glaze, che protegge lo stile di un artista mascherandolo agli algoritmi di AI. Il loro obiettivo è quello di fornire agli artisti gli strumenti necessari per difendere il proprio lavoro e controllarne l’utilizzo.
Il team sta lavorando a una versione combinata di Glaze e Nightshade, che dovrebbe essere disponibile entro un mese. Nel frattempo, i ricercatori incoraggiano gli artisti a utilizzare entrambi gli strumenti per una protezione completa.
La diffusione di strumenti come Nightshade rappresenta un passo importante verso un futuro in cui l’intelligenza artificiale rispetta i diritti degli artisti e la loro creatività. La versione open source di Nightshade, prevista per il futuro, contribuirà a rendere la tecnologia ancora più accessibile e democratica.
Il successo di Nightshade dimostra la necessità di un dialogo aperto e trasparente tra artisti, sviluppatori di AI e policymaker per definire le regole di un’etica dell’intelligenza artificiale che valorizzi il lavoro creativo e tuteli i diritti di tutti.
Una violazione di dati senza precedenti ha colpito il Great Firewall of China (GFW), con oltre 500 GB di materiale riservato che è stato sottratto e reso pubblico in rete. Tra le informazioni comprom...
Negli ultimi anni le truffe online hanno assunto forme sempre più sofisticate, sfruttando non solo tecniche di ingegneria sociale, ma anche la fiducia che milioni di persone ripongono in figure relig...
Microsoft ha ricordato agli utenti che tra un mese terminerà il supporto per l’amato Windows 10. Dal 14 ottobre 2025, il sistema non riceverà più aggiornamenti di sicurezza , correzioni di bug e ...
Negli ultimi mesi mi sono trovato più volte a redigere querele per video falsi che circolavano online. Non parliamo soltanto di contenuti rubati e diffusi senza consenso, ma anche di deepfake: filmat...
Le aziende appaltatrici della difesa statunitense stanno sviluppando uno strumento di intelligenza artificiale chiamato Cyber Resilience On-Orbit (CROO) per rilevare attacchi informatici ai satelliti ...