Redazione RHC : 25 Agosto 2021 10:11
Un team internazionale di medici e scienziati ed informatici ha riferito che i sistemi di intelligenza artificiale addestrati per analizzare i raggi X, le scansioni TC, le mammografie e altre immagini mediche possono prevedere l’etnia di un paziente con un alto grado di accuratezza basandosi solo attraverso immagini.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I sistemi identificavano accuratamente l’etnia, anche quando le immagini analizzate erano distorte a tal punto che le caratteristiche anatomiche erano indistinguibili dall’occhio umano. Tuttavia, gli esperti avvertono che ciò può portare a pregiudizi e discriminazioni.
“Le IA possono riconoscere la razza di un individuo in modi molto banali. Se questi modelli iniziano a studiare queste proprietà, allora tutto ciò che facciamo dal punto di vista del razzismo sistemico entrerà naturalmente nell’algoritmo “
hanno spiegato gli scienziati.
Nel tentativo di chiarire la situazione, gli esperti hanno esaminato se le differenze biologiche influenzassero le previsioni sulle etnie. I ricercatori hanno esaminato le immagini stesse per vedere se i modelli di intelligenza artificiale hanno tenuto conto delle differenze di qualità o risoluzione, poiché le immagini dei pazienti neri avrebbero potuto essere ottenute da dispositivi di qualità inferiore. Nessuno dei loro esperimenti ha spiegato questo fenomeno.
Infatti, gli scienziati non sono riusciti a spiegare come i sistemi di intelligenza artificiale abbiano fatto previsioni così accurate.
Attualmente, la FDA approva solo dispositivi medici ospedalieri intelligenti che sono formati su un set di dati specifico e non cambiano o migliorano man mano che vengono elaborati più dati.
Tuttavia, anche gli algoritmi già approvati spesso non vengono testati su persone di razze diverse e non vengono testati su base continuativa.
L’Azienda Ospedaliera Antonio Cardarelli di Napoli ha diramato un avviso urgente alla cittadinanza, segnalando una truffa che sta circolando tramite SMS. Numerosi cittadini hanno riportato di a...
E’ giallo relativamente al presunto attacco informatico avvenuto tra le notte del 23 e il 24 giugno in Alto Adige: dalle prime ore di martedì, infatti, si sono registrati problemi diffusi ...
Clamoroso in Francia: smantellata una delle più grandi reti globali di cybercriminalità. Gli hacker di BreachForum erano… francesi. Le autorità francesi hanno sgominato una vasta...
È stata scoperta una pericolosa vulnerabilità nell’ultima versione del popolare editor di testo Notepad++ che consente a un aggressore di ottenere il controllo completo del ...
Gli sviluppatori del ransomware Qilin (da noi intervistati recentemente) hanno offerto ai loro partner l’aiuto e la consulenza di un team di avvocati, in modo da poter fare pressione sulle vitt...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006