Redazione RHC : 25 Agosto 2021 10:11
Un team internazionale di medici e scienziati ed informatici ha riferito che i sistemi di intelligenza artificiale addestrati per analizzare i raggi X, le scansioni TC, le mammografie e altre immagini mediche possono prevedere l’etnia di un paziente con un alto grado di accuratezza basandosi solo attraverso immagini.
Iscriviti GRATIS alla RHC Conference 2025 (Venerdì 9 maggio 2025)
Il giorno Venerdì 9 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà
la RHC Conference 2025. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico.
La giornata inizierà alle 9:30 (con accoglienza dalle 9:00) e sarà interamente dedicata alla RHC Conference, un evento di spicco nel campo della sicurezza informatica. Il programma prevede un panel con ospiti istituzionali che si terrà all’inizio della conferenza. Successivamente, numerosi interventi di esperti nazionali nel campo della sicurezza informatica si susseguiranno sul palco fino alle ore 19:00 circa, quando termineranno le sessioni. Prima del termine della conferenza, ci sarà la premiazione dei vincitori della Capture The Flag prevista per le ore 18:00.
Potete iscrivervi gratuitamente all'evento utilizzando questo link.
Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I sistemi identificavano accuratamente l’etnia, anche quando le immagini analizzate erano distorte a tal punto che le caratteristiche anatomiche erano indistinguibili dall’occhio umano. Tuttavia, gli esperti avvertono che ciò può portare a pregiudizi e discriminazioni.
“Le IA possono riconoscere la razza di un individuo in modi molto banali. Se questi modelli iniziano a studiare queste proprietà, allora tutto ciò che facciamo dal punto di vista del razzismo sistemico entrerà naturalmente nell’algoritmo “
hanno spiegato gli scienziati.
Nel tentativo di chiarire la situazione, gli esperti hanno esaminato se le differenze biologiche influenzassero le previsioni sulle etnie. I ricercatori hanno esaminato le immagini stesse per vedere se i modelli di intelligenza artificiale hanno tenuto conto delle differenze di qualità o risoluzione, poiché le immagini dei pazienti neri avrebbero potuto essere ottenute da dispositivi di qualità inferiore. Nessuno dei loro esperimenti ha spiegato questo fenomeno.
Infatti, gli scienziati non sono riusciti a spiegare come i sistemi di intelligenza artificiale abbiano fatto previsioni così accurate.
Attualmente, la FDA approva solo dispositivi medici ospedalieri intelligenti che sono formati su un set di dati specifico e non cambiano o migliorano man mano che vengono elaborati più dati.
Tuttavia, anche gli algoritmi già approvati spesso non vengono testati su persone di razze diverse e non vengono testati su base continuativa.
Il collettivo di ricerca in sicurezza informatica HackerHood, parte dell’universo della community di Red Hot Cyber, ha recentemente scoperto due nuove vulnerabilità ...
La Cina introdurrà corsi di intelligenza artificiale per gli studenti delle scuole primarie e secondarie questo autunno. L’iniziativa prevede che i bambini a partire dai sei anni imparino ...
L’imageboard di 4chan è praticamente inattivo da lunedì sera (14 aprile), apparentemente a causa di un attacco hacker. I membri dell’imageboard Soyjak party (noto anche semplic...
Apple ha rilasciato patch di emergenza per correggere due vulnerabilità zero-day. Secondo l’azienda, questi problemi sono stati sfruttati in attacchi mirati ed “estremamen...
Quanto accaduto in questi giorni deve rappresentare un campanello d’allarme per l’Europa.Mentre il programma CVE — pilastro della sicurezza informatica globale — rischiava ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006