Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Artificial Intelligence: attenzione ai data-set di apprendimento.

15 Maggio 2021 07:00

Gli algoritmi di intelligenza artificiale / apprendimento automatico odierni vengono creati utilizzando centinaia di migliaia, se non milioni, di dati. L’elevata richiesta di dati ha generato servizi che li raccolgono, li preparano e li vendono.

Ma l’ascesa dei dati come valuta preziosa, anche per questo specifico ambito, li sottopone ad un esame più approfondito. Nella fretta di mettere le mani sui dati, molte aziende potrebbero non sempre o avere la dovuta diligenza nel processo di raccolta.

Questo le può portare a ripercussioni spiacevoli nelle fasi successive di addestramento delle AI. Inoltre, le ramificazioni etiche e legali dovute alla raccolta e all’uso improprio dei dati, si sta rivelando impegnativo, soprattutto di fronte alle normative in continua evoluzione e alla crescente consapevolezza dei consumatori sulla privacy e sul suo consenso.

L’apprendimento automatico supervisionato, un sottoinsieme dell’intelligenza artificiale, si nutre di vaste banche di data-set per svolgere bene quello che appunto si chiama “addestramento”, attraverso l’utilizzo di immagini o file audio o altri tipi di dati.

Ad esempio, un algoritmo di apprendimento automatico utilizzato nello screening dei bagagli in aeroporto, apprende l’aspetto di un’arma da fuoco vedendo milioni di immagini di armi all’interno dei bagagli e milioni che non contengono armi. Questo significa che le aziende devono preparare dei data-set per poter addestrare i loro algoritmi a riconoscere le armi da fuoco all’interno dei bagagli aeroportuali.

Situazioni simili si verificano con i dati audio, afferma il Dr. Chris Mitchell, CEO della società di tecnologia di riconoscimento del suono Audio Analytic.

Se un sistema di sicurezza si appoggia all’intelligenza artificiale, deve riconoscere tutta una serie di suoni tra cui la rottura dei vetri delle finestre e gli allarmi antifumo, secondo Mitchell.

Altrettanto importante, è necessario individuare correttamente queste informazioni nonostante il potenziale rumore di fondo. Ecco che questi dati sono di fondamentale importanza in quanto dovrebbero essere lo specchio delle informazioni che poi quella IA troverà in campo, anche se i dati di addestramento saranno suoni simili, ma diversi tra loro.

Man mano che gli algoritmi di Machine Learning assumono testo, immagini, audio e altri vari tipi di dati, la necessità di sicurezza e di “igene” nella loro provenienza, diventa sempre più imprescindibile.

Mentre le AI si specializzano e guadagnano terreno creando nuovi casi d’uso nel mondo reale, ci sarà bisogno di dati, dati differenti dai precedenti, dove la provenienza dei set di dati correlati sarà sempre più sotto il microscopio.

Le domande a cui le aziende devono essere sempre più preparate a rispondere sono:

  • Da dove vengono i dati?
  • Chi li possiede?
  • Il suo produttore ha concesso il consenso per l’uso?

Queste domande collocano le esigenze di governance dei dati di IA alla radice delle preoccupazioni etiche e delle leggi relative alla privacy e al consenso.

Se un sistema di riconoscimento facciale scansiona i volti delle persone, dopotutto, non dovrebbe ogni persona il cui volto viene utilizzato nell’algoritmo aver bisogno di acconsentire a tale uso?

DI fatto è quanto abbiamo riportato su Red Hot Cyber, relativamente a “Il Garante Privacy indaga su Clearview per l’uso dei volti social per addestrare le AI”.

Infatti le leggi relative alla privacy e alle preoccupazioni relative al consenso all’utilizzo dei data-set per l’addestramento delle AI, stanno guadagnando terreno.

Il regolamento generale sulla protezione dei dati (GDPR) dell’Unione europea conferisce alle persone il diritto di concedere e revocare il consenso all’uso dei propri dati personali, in qualsiasi momento.

Nel frattempo, una proposta per il 2021 dell’Unione Europea istituirebbe un quadro giuridico per la governance dell’IA che non consentirebbe l’uso di alcuni tipi di dati e richiederebbe l’autorizzazione prima di raccoglierli.

Anche l’acquisto di data-set potrebbe non garantire all’azienda l’immunità dalla responsabilità per il loro utilizzo. Ciò è stato visto quando la Federal Trade Commission ha multato Facebook con 5 miliardi di dollari.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCybercrime
Campagna di phishing su Signal in Europa: sospetto coinvolgimento di attori statali
Bajram Zeqiri - 07/02/2026

Le autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…