
Redazione RHC : 30 Ottobre 2024 07:51
Gli ospedali americani utilizzano sempre più uno strumento di intelligenza artificiale per trascrivere l’audio in testo chiamato Whisper. Tuttavia, secondo un’indagine dell’Associated Press , questa rete neurale, sviluppata da OpenAI , è soggetta ad “allucinazioni” e aggiunge frasi inesistenti alle trascrizioni di dati medici e documenti aziendali.
Rilasciato nel 2022, Whisper è stato inizialmente commercializzato come un sistema di trascrizione che si avvicina alla precisione umana. Tuttavia, un ricercatore dell’Università del Michigan ha osservato che l’80% dei verbali controllati delle riunioni pubbliche contenevano dati distorti. Uno sviluppatore ha riferito che delle sue 26.000 trascrizioni di prova, quasi tutte contenevano passaggi inventati.
Nonostante gli avvertimenti di OpenAI secondo cui Whisper non dovrebbe essere utilizzato in aree critiche, più di 30.000 operatori sanitari statunitensi utilizzano attualmente strumenti basati su di esso.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Tra questi ci sono la Mankato Clinic in Minnesota e il Children’s Hospital di Los Angeles, che utilizza il servizio di assistente AI di Nabla. Quest’ultimo ha confermato la possibilità di “allucinazioni” e ha aggiunto che le registrazioni audio già trascritte vengono automaticamente cancellate per garantire la protezione dei dati, il che rende difficile verificare la presenza di errori nelle trascrizioni.
Nel frattempo, gli errori di trascrizione possono causare gravi danni ai pazienti. Le persone non udenti e con problemi di udito sono particolarmente vulnerabili perché non possono verificare autonomamente la correttezza dei dati inseriti.
I problemi di Whisper si estendono oltre il campo medico. Una ricerca della Cornell University e dell’Università della Virginia ha rilevato che nell’1% delle registrazioni audio il sistema aggiungeva frasi che non erano contenute nei dati originali. Nel 38% dei casi si tratta di “allucinazioni” di natura dannosa, che vanno da atti di violenza immaginari a commenti razzisti.
La tecnologia di Whisper si basa sulla previsione delle parole probabili sulla base di dati audio. Se il sistema riscontra una scarsa qualità di registrazione, utilizza le frasi apparse più frequentemente nei dati di addestramento. Alcuni esempi sottolineano l’influenza dei contenuti di YouTube, sui quali il modello è stato addestrato.
Gli errori di Whisper sollevano interrogativi sulla regolamentazione dell’uso dell’intelligenza artificiale in medicina. Sebbene OpenAI riconosca il problema e continui a migliorare il modello, l’uso di strumenti di intelligenza artificiale inaffidabili in aree mission-critical richiede un’applicazione e una certificazione rigorose. Solo questo approccio ridurrà al minimo i rischi e garantirà un livello adeguato di sicurezza del paziente.
Redazione
In Australia, a breve sarà introdotta una normativa innovativa che vieta l’accesso ai social media per i minori di 16 anni, un’iniziativa che farà scuola a livello mondiale. Un’analoga misura ...

Il Dipartimento di Giustizia degli Stati Uniti ha accusato i fratelli gemelli Muneeb e Sohaib Akhter di aver cancellato 96 database contenenti informazioni sensibili, tra cui verbali di indagini e doc...

Malgrado le difficoltà geopolitiche significative, il settore degli spyware mercenari resta una minaccia adattabile e persistente; in questo contesto, il noto fornitore Intellexa prosegue l’espansi...

Secondo Eurostat nel 2023 solo il 55% dei cittadini dell’Unione Europea tra i 16 e i 74 anni possedeva competenze digitali almeno di base, con forti differenze tra paesi: si va da valori intorno all...

Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...