Redazione RHC : 14 Ottobre 2021 11:52
I ricercatori del Security, Algorithms, Networking and Data (SAND) Lab dell’Università di Chicago hanno testato i programmi di sintesi vocale deepfake disponibili nella comunità di sviluppatori open source Github per vedere se potevano aggirare i sistemi di riconoscimento vocale in Amazon Alexa, WeChat e Microsoft Azure.
Secondo gli sviluppatori di SV2TTS, il programma impiega solo cinque secondi per creare una simulazione accettabile. Descritto come un “toolkit di clonazione vocale in tempo reale”, SV2TTS è stato in grado di ingannare Microsoft Azure circa il 30% delle volte e di ingannare con successo WeChat e Amazon Alexa nel 63% dei casi.
CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce.
Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il programma potrebbe ingannare le orecchie umane: su 200 volontari a cui è stato chiesto di identificare voci reali tra i deepfake, circa la metà delle volte le risposte erano sbagliate.
L’audio deepfake è stato utilizzato con maggior successo per simulare voci femminili e voci di non madrelingua inglese.
“Abbiamo scoperto che sia gli esseri umani che i computer possono essere facilmente ingannati dalla sintesi vocale”
hanno detto i ricercatori a NewScientist.
Gli esperti hanno testato un altro programma di sintesi vocale chiamato AutoVC, che richiede cinque minuti di audio per ricreare una voce umana.
AutoVC è riuscito a ingannare Microsoft Azure solo il 15% delle volte, quindi i ricercatori si sono rifiutati di testarlo su WeChat e Alexa.
Fonte
https://github.com/CorentinJ/Real-Time-Voice-Cloning
La banda di criminali informatici di NOVA rivendica all’interno del proprio Data Leak Site (DLS) un attacco informatico al Comune di Pisa. Disclaimer: Questo rapporto include screenshot e/o tes...
Un grave attacco informatico ha colpito l’infrastruttura digitale dell’Università nella notte tra l’8 e il 9 maggio, causando l’interruzione improvvisa dei servizi onl...
Per anni, Reddit è rimasto uno dei pochi angoli di Internet in cui era possibile discutere in tutta sicurezza di qualsiasi argomento, dai videogiochi alle criptovalute, dalla politica alle teorie...
Le autorità statunitensi continuano a cercare soluzioni per fermare la fuga di chip avanzati verso la Cina, nonostante le rigide restrizioni all’esportazione in vigore. Il senatore Tom Cot...
Il gruppo Qilin, da noi intervistato qualche tempo fa, è in cima alla lista degli operatori di ransomware più attivi nell’aprile 2025, pubblicando i dettagli di 72 vittime sul suo sit...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006