All’inizio di quest’anno, si è verificato un incidente in cui un criminale informatico ha cercato di estorcere 1 milione di dollari a una donna dell’Arizona, sostenendo di aver rapito sua figlia. Per maggiore credibilità, l’autore del reato ha minacciato di picchiare la ragazza, mentre la madre dell’ostaggio, Jennifer DeStefano, ha sentito al telefono urla, pianti e suppliche disperate.
Tuttavia, queste grida si sono rivelate false. DeStefano ha detto alla polizia di essere certa che l’uomo al telefono avesse effettivamente rapito sua figlia perché la voce della presunta vittima era identica a quella di sua figlia.
Si tratta di episodi in rapida crescita in cui i criminali informatici hanno utilizzato strumenti di intelligenza artificiale per ingannare le persone.
Il problema è diventato così importante che all’inizio di giugno l’FBI ha emesso un avviso in cui riportava numerose lamentele sulla questione: gli aggressori pubblicano sulla rete contenuti pornografici credibili, anche con la partecipazione di bambini minorenni, creati utilizzando tecnologie di apprendimento automatico, minacciando di distribuire i contenuti ad amici, conoscenti e potenziali vittime a scopo di estorsione.
In molti casi, tutto ciò di cui gli aggressori hanno bisogno per creare deepfake sono piccoli campioni del contenuto del bersaglio.
Bastano anche pochi secondi di una registrazione audio che una persona può postare sui social per clonare la voce della vittima. Secondo i ricercatori di Trend Micro, sono ora disponibili molti strumenti di intelligenza artificiale che semplificano la clonazione di una voce utilizzando campioni vocali raccolti da varie fonti.
A maggio, gli esperti di sicurezza informatica di Recorded Future hanno avvertito di un aumento dell’interesse dei criminali informatici per Voice Cloning-as-a-Service (VCaaS), che rende disponibile la tecnologia deepfake. Secondo Recorded Future, sulla darknet stanno comparendo sempre più piattaforme di clonazione vocale, abbassando la barriera di ingresso per i criminali informatici. Alcuni di essi sono gratuiti, mentre altri costano solo circa 5 dollari al mese.
Anche quest’anno si è saputo che la nuova rete neurale VALL-E di Microsoft è in grado di falsificare la voce di una determinata persona fino alle singole intonazioni.
Oltre alla contraffazione vocale per reati, esiste anche l’autenticazione vocale, un’altra cosa di cui aver paura.
Di recente, gli informatici dell’Università di Waterloo hanno sviluppato un metodo di attacco in grado di aggirare con successo i sistemi di sicurezza dell’autenticazione vocale con una percentuale di successo fino al 99% dopo sei tentativi.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…