
Redazione RHC : 21 Settembre 2025 10:02
Un team dell’Università della California, Riverside, ha mostrato un nuovo modo per rimuovere dati privati e protetti da copyright dai modelli di intelligenza artificiale senza accedere ai set di dati originali. La soluzione affronta il problema dei contenuti personali e a pagamento riprodotti quasi alla lettera nelle risposte, anche quando le fonti vengono eliminate o bloccate dietro password e paywall.
L’approccio è chiamato “source-free certified unlearning”. Viene utilizzato un set surrogato statisticamente simile all’originale. I parametri del modello vengono modificati come se fosse stato riaddestrato da zero. Viene introdotto rumore casuale accuratamente calcolato per garantire la cancellazione. Il metodo dispone di un nuovo meccanismo di calibrazione del rumore che compensa le discrepanze tra i dati originali e quelli surrogati. L’obiettivo è rimuovere le informazioni selezionate e mantenere le prestazioni sul materiale rimanente.
La domanda di tale tecnologia è dettata dai requisiti del GDPR e del CCPA, nonché dalle controversie relative all’addestramento su testi protetti. I modelli linguistici vengono addestrati su Internet e talvolta producono frammenti quasi esatti delle fonti, il che consente di aggirare l’accesso a pagamento. Separatamente, il New York Times ha intentato una causa contro OpenAI e Microsoft in merito all’uso di articoli per addestrare i modelli GPT.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Gli autori hanno testato il metodo su set di dati sintetici e reali. L’approccio è adatto anche quando i set di dati originali sono persi, frammentati o legalmente inaccessibili.
Il lavoro è attualmente progettato per architetture più semplici, ancora ampiamente utilizzate, ma con ulteriori sviluppi il meccanismo può essere scalato a sistemi più ampi come ChatGPT.
I prossimi passi sono l’adattamento a tipologie di modelli e dati più complesse, nonché la creazione di strumenti che renderanno la tecnologia disponibile agli sviluppatori di tutto il mondo. La tecnologia è utile per i media, le organizzazioni mediche e altri proprietari di informazioni sensibili, e offre inoltre alle persone la possibilità di richiedere la rimozione di dati personali e proprietari dall’IA.
Redazione
Quanto avevamo scritto nell’articolo “Codice Patriottico: da DDoSia e NoName057(16) al CISM, l’algoritmo che plasma la gioventù per Putin” su Red Hot Cyber il 23 luglio scorso trova oggi pien...

Notepad++ è spesso preso di mira da malintenzionati perché il software è popolare e ampiamente utilizzato. Una vulnerabilità recentemente scoperta nell’editor di testo e codice open source Notep...

Una vulnerabilità critica associata all’esecuzione di codice remoto (RCE) in Outlook è stata sanata da Microsoft, potenzialmente consentendo a malintenzionati di attivare codice dannoso su sistemi...

Il mondo della tecnologia quantistica ha compiuto un balzo in avanti impressionante: QuantWare ha presentato il primo processore al mondo da 10.000 qubit, 100 volte più di qualsiasi dispositivo esist...

Un aggiornamento urgente è stato pubblicato da Ivanti per la sua piattaforma Endpoint Manager (EPM), al fine di risolvere un insieme di vulnerabilità significative che potrebbero permettere agli agg...