Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Ransomfeed 970x120 1
HackTheBox 320x100 1
Artificial Intelligence: attenzione ai data-set di apprendimento.

Artificial Intelligence: attenzione ai data-set di apprendimento.

15 Maggio 2021 07:00

Gli algoritmi di intelligenza artificiale / apprendimento automatico odierni vengono creati utilizzando centinaia di migliaia, se non milioni, di dati. L’elevata richiesta di dati ha generato servizi che li raccolgono, li preparano e li vendono.

Ma l’ascesa dei dati come valuta preziosa, anche per questo specifico ambito, li sottopone ad un esame più approfondito. Nella fretta di mettere le mani sui dati, molte aziende potrebbero non sempre o avere la dovuta diligenza nel processo di raccolta.

Questo le può portare a ripercussioni spiacevoli nelle fasi successive di addestramento delle AI. Inoltre, le ramificazioni etiche e legali dovute alla raccolta e all’uso improprio dei dati, si sta rivelando impegnativo, soprattutto di fronte alle normative in continua evoluzione e alla crescente consapevolezza dei consumatori sulla privacy e sul suo consenso.

L’apprendimento automatico supervisionato, un sottoinsieme dell’intelligenza artificiale, si nutre di vaste banche di data-set per svolgere bene quello che appunto si chiama “addestramento”, attraverso l’utilizzo di immagini o file audio o altri tipi di dati.

Ad esempio, un algoritmo di apprendimento automatico utilizzato nello screening dei bagagli in aeroporto, apprende l’aspetto di un’arma da fuoco vedendo milioni di immagini di armi all’interno dei bagagli e milioni che non contengono armi. Questo significa che le aziende devono preparare dei data-set per poter addestrare i loro algoritmi a riconoscere le armi da fuoco all’interno dei bagagli aeroportuali.

Situazioni simili si verificano con i dati audio, afferma il Dr. Chris Mitchell, CEO della società di tecnologia di riconoscimento del suono Audio Analytic.

Se un sistema di sicurezza si appoggia all’intelligenza artificiale, deve riconoscere tutta una serie di suoni tra cui la rottura dei vetri delle finestre e gli allarmi antifumo, secondo Mitchell.

Altrettanto importante, è necessario individuare correttamente queste informazioni nonostante il potenziale rumore di fondo. Ecco che questi dati sono di fondamentale importanza in quanto dovrebbero essere lo specchio delle informazioni che poi quella IA troverà in campo, anche se i dati di addestramento saranno suoni simili, ma diversi tra loro.

Man mano che gli algoritmi di Machine Learning assumono testo, immagini, audio e altri vari tipi di dati, la necessità di sicurezza e di “igene” nella loro provenienza, diventa sempre più imprescindibile.

Mentre le AI si specializzano e guadagnano terreno creando nuovi casi d’uso nel mondo reale, ci sarà bisogno di dati, dati differenti dai precedenti, dove la provenienza dei set di dati correlati sarà sempre più sotto il microscopio.

Le domande a cui le aziende devono essere sempre più preparate a rispondere sono:

  • Da dove vengono i dati?
  • Chi li possiede?
  • Il suo produttore ha concesso il consenso per l’uso?

Queste domande collocano le esigenze di governance dei dati di IA alla radice delle preoccupazioni etiche e delle leggi relative alla privacy e al consenso.

Se un sistema di riconoscimento facciale scansiona i volti delle persone, dopotutto, non dovrebbe ogni persona il cui volto viene utilizzato nell’algoritmo aver bisogno di acconsentire a tale uso?

DI fatto è quanto abbiamo riportato su Red Hot Cyber, relativamente a “Il Garante Privacy indaga su Clearview per l’uso dei volti social per addestrare le AI”.

Infatti le leggi relative alla privacy e alle preoccupazioni relative al consenso all’utilizzo dei data-set per l’addestramento delle AI, stanno guadagnando terreno.

Il regolamento generale sulla protezione dei dati (GDPR) dell’Unione europea conferisce alle persone il diritto di concedere e revocare il consenso all’uso dei propri dati personali, in qualsiasi momento.

Nel frattempo, una proposta per il 2021 dell’Unione Europea istituirebbe un quadro giuridico per la governance dell’IA che non consentirebbe l’uso di alcuni tipi di dati e richiederebbe l’autorizzazione prima di raccoglierli.

Anche l’acquisto di data-set potrebbe non garantire all’azienda l’immunità dalla responsabilità per il loro utilizzo. Ciò è stato visto quando la Federal Trade Commission ha multato Facebook con 5 miliardi di dollari.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCyber News
Scoperta Shock su Instagram: Post Privati Accessibili Senza Login!
Redazione RHC - 26/01/2026

La scoperta è avvenuta casualmente: navigando sulla versione web mobile di Instagram, Jatin Banga ha notato che i contenuti di alcuni profili privati erano visibili senza alcuna autorizzazione. Analizzando il traffico dati, ha individuato la…

Immagine del sitoCyber News
149 Milioni di Account Esposti: Il Database Che Nessuno Doveva Vedere
Redazione RHC - 26/01/2026

Un recente leak ha rivelato 149 milioni di login e password esposti online, tra cui account di servizi finanziari, social, gaming e siti di incontri. La scoperta è stata fatta dal ricercatore Jeremiah Fowler e…

Immagine del sitoCybercrime
Quando il Malware si Nasconde nei Video! La Tecnica PixelCode Smonta le Regole
Marcello Filacchioni - 26/01/2026

PixelCode nasce come progetto di ricerca che esplora una tecnica nascosta per archiviare dati binari all’interno di immagini o video. Invece di lasciare un eseguibile in chiaro, il file viene convertito in dati pixel, trasformando…

Immagine del sitoCyber News
Come un semplice file di Visual Studio Code può diventare una backdoor per hacker statali
Redazione RHC - 26/01/2026

Di recente, i ricercatori di sicurezza hanno osservato un’evoluzione preoccupante nelle tattiche offensive attribuite ad attori collegati alla Corea del Nord nell’ambito della campagna nota come Contagious Interview: non più semplici truffe di fake job…

Immagine del sitoCyber News
Microsoft Teams saprà dove sei: la posizione geografica verrà dedotta dal Wi-Fi
Redazione RHC - 26/01/2026

Microsoft si appresta a introdurre un aggiornamento che trasforma una piccola abitudine manuale in un automatismo di sistema. Presto, Microsoft Teams sarà in grado di dedurre e mostrare la posizione fisica di un utente analizzando…