Autore: Stefano Gazzella
L’Autorità garante per la protezione dei dati personali ha aperto un’istruttoria nei confronti di Fakeyou, un’app che si presenta come in grado di convertire un testo in un audio in una voce selezionabile fra più fonti all’interno delle quali rientrano personaggi di videogiochi, personaggi pubblici e, in particolare, voci clonate da un file audio caricato.
L’iniziativa fa seguito al dilagare dell’impiego dell’app su alcuni social network e principalmente TikTok, nonché ad alcune notizie diffuse da alcune testate giornalistiche.
Nel comunicato stampa del Garante trovano particolare enfasi i “potenziali rischi che potrebbero determinarsi da un uso improprio di un dato personale, quale è appunto la voce”, e da ciò consegue la richiesta di trasmissione alla società The Storyteller Company – Fakeyou di tutte le informazioni per chiarire l’iniziativa e in particolare:
Andando a leggere i termini d’uso dell’app, il progetto viene presentato come una “research technology for fun” non destinata a scopi di lucro.
Viene prevista la possibilità di richiede il takedown di contenuti protetti da diritto d’autore, nonché la possibilità di riportare eventuali abusi allo staff su Discord. Inoltre, viene annunciato lo sviluppo imminente di uno strumento per verificare gli audio generati e poterne tracciare la sorgente.
Non si trova però alcuna informativa privacy e dunque si potrà apprendere solo dagli esiti dell’istruttoria ogni informazioni relativa alle attività di trattamento svolte.
Ciò che maggiormente deve preoccupare, però, è quanto non è stato sufficientemente posto in evidenza. C’è un annuncio che campeggia nella home page del sito in cui viene offerta la disponibilità a pagare “anche $150 USD a voce!”. Insomma: si presenta la possibilità di svolgimento di un vero e proprio mercimonio di dati personali, ragion per cui forse ci si sarebbe potuti attendere un approccio maggiormente prudenziale da parte dell’Authority con un provvedimento di limitazione provvisoria dei trattamenti fino al riscontro circa la richiesta di informazioni.
Volendo guardare al di fuori del perimetro dell’istruttoria, lo scenario è tutt’altro che confortante dal momento che qualsivoglia esito della stessa non sembra poter incidere a riguardo.
Ad oggi è infatti noto che all’interno dei marketplace delle underground i servizi di deepfake sono diventati oggetto di vendita, con la conseguente previsione di un significativo aumento degli attacchi ibridi in cui tali tecnologie potranno ben trovare impiego. E questa non rappresenta affatto una novità, dal momento che ENISA nel report di inizio 2022 aveva segnalato tali minacce evidenziando un trend di crescita rilevato già in corso a partire dagli anni precedenti.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…