Redazione RHC : 19 Dicembre 2021 07:47
I programmi di intelligenza artificiale che controllano le immagini mediche alla ricerca del cancro possono essere ingannati con dati alterati.
Un gruppo di ricerca dell’Università di Pittsburgh ha dimostrato che un programma per computer può essere in grado di aggiungere o rimuovere immagini dove ne i tecnici di radiologia né lo strumento basato sull’intelligenza artificiale sono stati in grado di rilevare questi cambiamenti.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Un programma per computer sviluppato da scienziati ha cambiato i raggi X del seno, che inizialmente non aveva segni relativi al cancro, e li ha trasformati in immagini maligne. Le immagini modificate sembravano normali ad un occhio umano. Gli esperti hanno testato le immagini alterate utilizzando algoritmi basati sull’intelligenza artificiale addestrati per rilevare i segni del cancro al seno e hanno chiesto a cinque radiologi di analizzare queste immagini.
Circa il 70% delle immagini elaborate ha ingannato il programma: l’IA ha identificato erroneamente immagini sane e maligne. I radiologi hanno riconosciuto il falso con vari gradi di accuratezza, che variavano dal 29% al 71%.
Ad oggi, non sono stati documentati casi di immagini a raggi X compromesse in attacchi reali. Tuttavia, i criminali informatici potrebbero essere interessati a pazienti specifici, come i politici.
Questa tecnologia può essere utilizzata anche dai truffatori per falsificare le proprie immagini e ottenere un’assicurazione. Gli hacker possono anche falsificare deliberatamente le immagini e chiedere un riscatto all’ospedale per fermare gli attacchi.
“Speriamo che questo studio induca le persone a riflettere sulla sicurezza dei modelli di IA medica e su cosa possiamo fare per difenderci da potenziali attacchi”
hanno spiegato i ricercatori.
Sullo sfondo della diffusa popolarità degli assistenti AI generativi che promettono di creare codice funzionante per tutti basato su una semplice descrizione in linguaggio naturale, il team ...
Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello...
GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...
Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...
E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006