Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Artificial Intelligence: attenzione ai data-set di apprendimento.

Redazione RHC : 15 Maggio 2021 07:00

Gli algoritmi di intelligenza artificiale / apprendimento automatico odierni vengono creati utilizzando centinaia di migliaia, se non milioni, di dati. L’elevata richiesta di dati ha generato servizi che li raccolgono, li preparano e li vendono.

Ma l’ascesa dei dati come valuta preziosa, anche per questo specifico ambito, li sottopone ad un esame più approfondito. Nella fretta di mettere le mani sui dati, molte aziende potrebbero non sempre o avere la dovuta diligenza nel processo di raccolta.


Distribuisci i nostri corsi di formazione diventando un nostro Affiliato

Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]



Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


Questo le può portare a ripercussioni spiacevoli nelle fasi successive di addestramento delle AI. Inoltre, le ramificazioni etiche e legali dovute alla raccolta e all’uso improprio dei dati, si sta rivelando impegnativo, soprattutto di fronte alle normative in continua evoluzione e alla crescente consapevolezza dei consumatori sulla privacy e sul suo consenso.

L’apprendimento automatico supervisionato, un sottoinsieme dell’intelligenza artificiale, si nutre di vaste banche di data-set per svolgere bene quello che appunto si chiama “addestramento”, attraverso l’utilizzo di immagini o file audio o altri tipi di dati.

Ad esempio, un algoritmo di apprendimento automatico utilizzato nello screening dei bagagli in aeroporto, apprende l’aspetto di un’arma da fuoco vedendo milioni di immagini di armi all’interno dei bagagli e milioni che non contengono armi. Questo significa che le aziende devono preparare dei data-set per poter addestrare i loro algoritmi a riconoscere le armi da fuoco all’interno dei bagagli aeroportuali.

Situazioni simili si verificano con i dati audio, afferma il Dr. Chris Mitchell, CEO della società di tecnologia di riconoscimento del suono Audio Analytic.

Se un sistema di sicurezza si appoggia all’intelligenza artificiale, deve riconoscere tutta una serie di suoni tra cui la rottura dei vetri delle finestre e gli allarmi antifumo, secondo Mitchell.

Altrettanto importante, è necessario individuare correttamente queste informazioni nonostante il potenziale rumore di fondo. Ecco che questi dati sono di fondamentale importanza in quanto dovrebbero essere lo specchio delle informazioni che poi quella IA troverà in campo, anche se i dati di addestramento saranno suoni simili, ma diversi tra loro.

Man mano che gli algoritmi di Machine Learning assumono testo, immagini, audio e altri vari tipi di dati, la necessità di sicurezza e di “igene” nella loro provenienza, diventa sempre più imprescindibile.

Mentre le AI si specializzano e guadagnano terreno creando nuovi casi d’uso nel mondo reale, ci sarà bisogno di dati, dati differenti dai precedenti, dove la provenienza dei set di dati correlati sarà sempre più sotto il microscopio.

Le domande a cui le aziende devono essere sempre più preparate a rispondere sono:

  • Da dove vengono i dati?
  • Chi li possiede?
  • Il suo produttore ha concesso il consenso per l’uso?

Queste domande collocano le esigenze di governance dei dati di IA alla radice delle preoccupazioni etiche e delle leggi relative alla privacy e al consenso.

Se un sistema di riconoscimento facciale scansiona i volti delle persone, dopotutto, non dovrebbe ogni persona il cui volto viene utilizzato nell’algoritmo aver bisogno di acconsentire a tale uso?

DI fatto è quanto abbiamo riportato su Red Hot Cyber, relativamente a “Il Garante Privacy indaga su Clearview per l’uso dei volti social per addestrare le AI”.

Infatti le leggi relative alla privacy e alle preoccupazioni relative al consenso all’utilizzo dei data-set per l’addestramento delle AI, stanno guadagnando terreno.

Il regolamento generale sulla protezione dei dati (GDPR) dell’Unione europea conferisce alle persone il diritto di concedere e revocare il consenso all’uso dei propri dati personali, in qualsiasi momento.

Nel frattempo, una proposta per il 2021 dell’Unione Europea istituirebbe un quadro giuridico per la governance dell’IA che non consentirebbe l’uso di alcuni tipi di dati e richiederebbe l’autorizzazione prima di raccoglierli.

Anche l’acquisto di data-set potrebbe non garantire all’azienda l’immunità dalla responsabilità per il loro utilizzo. Ciò è stato visto quando la Federal Trade Commission ha multato Facebook con 5 miliardi di dollari.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Truffe e Schiavitù Digitali: La Cambogia è la Capitale Mondiale della Frode Online

Secondo un nuovo rapporto del gruppo per i diritti umani Amnesty International, pubblicato dopo quasi due anni di ricerche sulla situazione, la Cambogia resta un punto caldo sulla mappa mondiale della...

Dopo aver criptato mezzo mondo, Hunters International chiude! Distribuito gratuitamente il Decryptor

Hunters International, il gruppo responsabile di uno dei più grandi attacchi ransomware degli ultimi anni, ha annunciato ufficialmente la cessazione delle sue attività. In una dichiarazione ...

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...

Se è gratuito, il prodotto sei tu. Google paga 314 milioni di dollari per violazione dei dati agli utenti Android

Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...

CTF di RHC 2025. Ingegneria sociale in gioco: scopri la quarta “flag” non risolta

La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...