Redazione RHC : 14 Ottobre 2021 11:52
I ricercatori del Security, Algorithms, Networking and Data (SAND) Lab dell’Università di Chicago hanno testato i programmi di sintesi vocale deepfake disponibili nella comunità di sviluppatori open source Github per vedere se potevano aggirare i sistemi di riconoscimento vocale in Amazon Alexa, WeChat e Microsoft Azure.
Secondo gli sviluppatori di SV2TTS, il programma impiega solo cinque secondi per creare una simulazione accettabile. Descritto come un “toolkit di clonazione vocale in tempo reale”, SV2TTS è stato in grado di ingannare Microsoft Azure circa il 30% delle volte e di ingannare con successo WeChat e Amazon Alexa nel 63% dei casi.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il programma potrebbe ingannare le orecchie umane: su 200 volontari a cui è stato chiesto di identificare voci reali tra i deepfake, circa la metà delle volte le risposte erano sbagliate.
L’audio deepfake è stato utilizzato con maggior successo per simulare voci femminili e voci di non madrelingua inglese.
“Abbiamo scoperto che sia gli esseri umani che i computer possono essere facilmente ingannati dalla sintesi vocale”
hanno detto i ricercatori a NewScientist.
Gli esperti hanno testato un altro programma di sintesi vocale chiamato AutoVC, che richiede cinque minuti di audio per ricreare una voce umana.
AutoVC è riuscito a ingannare Microsoft Azure solo il 15% delle volte, quindi i ricercatori si sono rifiutati di testarlo su WeChat e Alexa.
Fonte
https://github.com/CorentinJ/Real-Time-Voice-Cloning
GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...
Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...
E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...
Anche questa mattina, gli hacker di NoName057(16) procedono a sferrare attacchi DDoS contro diversi obiettivi italiani. Nell’ultimo periodo, Telegram ha intensificato la sua azione co...
Secondo diverse indiscrezioni, il proprietario di Pornhub, Redtube e YouPorn ha intenzione di interrompere il servizio agli utenti francesi già mercoledì pomeriggio per protestare contro le ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006