Silvia Felici : 25 Dicembre 2022 08:29
Negli ultimi 30 anni l’AI ha fatto passi da gigante. Con l’ascesa dei Deepfakes, molti ricercatori sono sempre più preoccupati della loro capacità di diffondere informazioni false.
Per fare un esempio, è perfettamente possibile per un gruppo politico creare un deepfake di un avversario, danneggiando così il sistema elettorale attraverso la pura manipolazione.
In questi anni molti deepfake stanno prendendo piede anche nell’industria pornografica, facendo indossare le sembianze del povero malcapitato ad attori professionisti, causando così umiliazioni e danneggiandone la reputazione.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Nella vita di tutti i giorni sono pochi gli strumenti a disposizione dei consumatori per identificare i deepfakes.
Intel annuncia che ha recentemente sviluppato un rilevatore di deepfake in tempo reale, dove si avrà la possibilità da parte degli utenti di caricare file video sospetti per verificare se si tratta effettivamente di Deepfake.
Ha detto Ilke Demir, ricercatore senior nei laboratori Intel
La nuova soluzione davvero innovativa si chiama FakeCatcher, ed utilizza l’hardware e il software di Intel, per analizzare informazioni come il colore della pelle che cambia con il fluire del sangue, che a sua volta varia con il battito cardiaco e il movimento dei muscoli. Si tratta di analizzare dei sottili cambiamenti che spesso sono ignorati nei deepfake.
Secondo Intel, i test preliminari del sistema forniscono un’accuratezza del 96%, un dato importante nella lotta contro questo tipo di tecnologie.
Inoltre, la tecnologia potrà essere utilizzata anche con video in tempo reale, il che consente di difendersi dai flussi live (la tecnologia deepfake consente già di generare video in tempo reale).
Fonte
Intel Introduces Real-Time Deepfake Detector
Broadcom ha risolto una grave vulnerabilità di escalation dei privilegi in VMware Aria Operations e VMware Tools, che era stata sfruttata in attacchi a partire da ottobre 2024. Al problema è stato a...
In un settore un tempo dominato da star dal vivo, i personaggi digitali si stanno facendo sempre più strada. Durante un summit a Zurigo, Ellin van der Velden, attrice, comica e tecnologa, ha annuncia...
La Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha aggiunto una vulnerabilità critica nella popolare utility Sudo, utilizzata su sistemi Linux e Unix-like, al suo catalog...
Negli ultimi anni gli attacchi informatici sono diventati una delle principali minacce per le aziende, indipendentemente dal settore. Se i reparti tecnici si concentrano sulla risoluzione dei problemi...
Nel 2025 l’Unione Europea vuole avere il controllo totale sulle chat private. Il Regolamento “Chat Control” (proposta COM(2022)209) promette di combattere la pornografia minorile con la scansion...