Artificial Intelligence: attenzione ai data-set di apprendimento.


Gli algoritmi di intelligenza artificiale / apprendimento automatico odierni vengono creati utilizzando centinaia di migliaia, se non milioni, di dati. L'elevata richiesta di dati ha generato servizi che li raccolgono, li preparano e li vendono.


Ma l'ascesa dei dati come valuta preziosa, anche per questo specifico ambito, li sottopone ad un esame più approfondito. Nella fretta di mettere le mani sui dati, molte aziende potrebbero non sempre o avere la dovuta diligenza nel processo di raccolta.



Questo le può portare a ripercussioni spiacevoli nelle fasi successive di addestramento delle AI. Inoltre, le ramificazioni etiche e legali dovute alla raccolta e all'uso improprio dei dati, si sta rivelando impegnativo, soprattutto di fronte alle normative in continua evoluzione e alla crescente consapevolezza dei consumatori sulla privacy e sul suo consenso.


L'apprendimento automatico supervisionato, un sottoinsieme dell'intelligenza artificiale, si nutre di vaste banche di data-set per svolgere bene quello che appunto si chiama "addestramento", attraverso l'utilizzo di immagini o file audio o altri tipi di dati.



Ad esempio, un algoritmo di apprendimento automatico utilizzato nello screening dei bagagli in aeroporto, apprende l'aspetto di un'arma da fuoco vedendo milioni di immagini di armi all'interno dei bagagli e milioni che non contengono armi. Questo significa che le aziende devono preparare dei data-set per poter addestrare i loro algoritmi a riconoscere le armi da fuoco all'interno dei bagagli aeroportuali.


Situazioni simili si verificano con i dati audio, afferma il Dr. Chris Mitchell, CEO della società di tecnologia di riconoscimento del suono Audio Analytic.


Se un sistema di sicurezza si appoggia all'intelligenza artificiale, deve riconoscere tutta una serie di suoni tra cui la rottura dei vetri delle finestre e gli allarmi antifumo, secondo Mitchell.



Altrettanto importante, è necessario individuare correttamente queste informazioni nonostante il potenziale rumore di fondo. Ecco che questi dati sono di fondamentale importanza in quanto dovrebbero essere lo specchio delle informazioni che poi quella IA troverà in campo, anche se i dati di addestramento saranno suoni simili, ma diversi tra loro.


Man mano che gli algoritmi di Machine Learning assumono testo, immagini, audio e altri vari tipi di dati, la necessità di sicurezza e di "igene" nella loro provenienza, diventa sempre più imprescindibile.



Mentre le AI si specializzano e guadagnano terreno creando nuovi casi d'uso nel mondo reale, ci sarà bisogno di dati, dati differenti dai precedenti, dove la provenienza dei set di dati correlati sarà sempre più sotto il microscopio.


Le domande a cui le aziende devono essere sempre più preparate a rispondere sono:

  • Da dove vengono i dati?

  • Chi li possiede?

  • Il suo produttore ha concesso il consenso per l'uso?

Queste domande collocano le esigenze di governance dei dati di IA alla radice delle preoccupazioni etiche e delle leggi relative alla privacy e al consenso.



Se un sistema di riconoscimento facciale scansiona i volti delle persone, dopotutto, non dovrebbe ogni persona il cui volto viene utilizzato nell'algoritmo aver bisogno di acconsentire a tale uso?


DI fatto è quanto abbiamo riportato su Red Hot Cyber, relativamente a "Il Garante Privacy indaga su Clearview per l'uso dei volti social per addestrare le AI".


Infatti le leggi relative alla privacy e alle preoccupazioni relative al consenso all'utilizzo dei data-set per l'addestramento delle AI, stanno guadagnando terreno.


Il regolamento generale sulla protezione dei dati (GDPR) dell'Unione europea conferisce alle persone il diritto di concedere e revocare il consenso all'uso dei propri dati personali, in qualsiasi momento.



Nel frattempo, una proposta per il 2021 dell'Unione Europea istituirebbe un quadro giuridico per la governance dell'IA che non consentirebbe l'uso di alcuni tipi di dati e richiederebbe l'autorizzazione prima di raccoglierli.