Redazione RHC : 19 Dicembre 2021 07:47
I programmi di intelligenza artificiale che controllano le immagini mediche alla ricerca del cancro possono essere ingannati con dati alterati.
Un gruppo di ricerca dell’Università di Pittsburgh ha dimostrato che un programma per computer può essere in grado di aggiungere o rimuovere immagini dove ne i tecnici di radiologia né lo strumento basato sull’intelligenza artificiale sono stati in grado di rilevare questi cambiamenti.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Un programma per computer sviluppato da scienziati ha cambiato i raggi X del seno, che inizialmente non aveva segni relativi al cancro, e li ha trasformati in immagini maligne. Le immagini modificate sembravano normali ad un occhio umano. Gli esperti hanno testato le immagini alterate utilizzando algoritmi basati sull’intelligenza artificiale addestrati per rilevare i segni del cancro al seno e hanno chiesto a cinque radiologi di analizzare queste immagini.
Circa il 70% delle immagini elaborate ha ingannato il programma: l’IA ha identificato erroneamente immagini sane e maligne. I radiologi hanno riconosciuto il falso con vari gradi di accuratezza, che variavano dal 29% al 71%.
Ad oggi, non sono stati documentati casi di immagini a raggi X compromesse in attacchi reali. Tuttavia, i criminali informatici potrebbero essere interessati a pazienti specifici, come i politici.
Questa tecnologia può essere utilizzata anche dai truffatori per falsificare le proprie immagini e ottenere un’assicurazione. Gli hacker possono anche falsificare deliberatamente le immagini e chiedere un riscatto all’ospedale per fermare gli attacchi.
“Speriamo che questo studio induca le persone a riflettere sulla sicurezza dei modelli di IA medica e su cosa possiamo fare per difenderci da potenziali attacchi”
hanno spiegato i ricercatori.
Secondo un nuovo rapporto del gruppo per i diritti umani Amnesty International, pubblicato dopo quasi due anni di ricerche sulla situazione, la Cambogia resta un punto caldo sulla mappa mondiale della...
Hunters International, il gruppo responsabile di uno dei più grandi attacchi ransomware degli ultimi anni, ha annunciato ufficialmente la cessazione delle sue attività. In una dichiarazione ...
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006