Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Enterprise BusinessLog 970x120 1
320×100

Tag: #deepfake

La Wayback Machine “delle anime” sta per arrivare. E anche le polemiche

Molti di noi sono cresciuti con Hiroshi Shiba, di Jeeg robot d’acciaio che parlava con il defunto padre, il Professor Senjiro Shiba, scienziato e archeologo all’interno di un grande elaboratore. In un futuro distopico – ma molto vicino – le persone defunte potranno parlare con i defunti, che saranno archiviate e indicizzate in un grande “archivio delle anime*, come una grande Wayback machine, ma per i defunti. Lo scandalo dei “fantasmi” digitali è divampato di nuovo. Nel 2020, Kanye West regalò a Kim Kardashian un ologramma del suo defunto padre, Rob Kardashian, per il suo compleanno: all’epoca, questo gesto sembrò un regalo

Sam Altman “Spero che a causa della tecnologia non accadano cose brutte”

Le ultime dichiarazioni di Sam Altman, CEO di OpenAI, in merito al progresso dell’intelligenza artificiale (IA) non sono molto incoraggianti, in quanto ha recentemente affermato di essere preoccupato per “l’impatto dell’IA sui posti di lavoro” e ha anche chiarito che non saremo al sicuro nemmeno in un bunker “se l’IA sfugge al controllo” . Ma non è tutto, perché in una recente intervista l’AD di OpenAI ha dichiarato senza mezzi termini che dovremmo preoccuparci del futuro che l’intelligenza artificiale ci porterà: “Penso che succederà qualcosa di brutto con l’intelligenza artificiale”. Come riporta un articolo di Investopedia, un mese fa Sam Altman ha

Il 95% delle aziende si crede pronta al ransomware. Ma solo il 15% lo è davvero!

La diffusa fiducia delle aziende nella propria resilienza informatica si trova ad affrontare una nuova ondata di minacce, questa volta provenienti dall’intelligenza artificiale. Secondo l’OpenText Cybersecurity 2025 Report, il 95% delle organizzazioni in tutto il mondo ritiene di potersi riprendere da un attacco ransomware. Tuttavia, la realtà si è rivelata molto più complessa: solo il 15% delle vittime ha effettivamente recuperato tutti i propri dati e un numero crescente di incidenti è attribuito all’uso dell’intelligenza artificiale per scopi offensivi. Uno studio condotto su quasi 1.800 professionisti della sicurezza e dirigenti aziendali provenienti da Stati Uniti, Canada, Europa e Australia mostra che i

Dal corpo allo schermo: come l’abuso sessuale si è spostato nel mondo digitale

Questo è il secondo di una serie di articoli dedicati all’analisi della violenza di genere nel contesto digitale, in attesa del 25 novembre, Giornata Internazionale per l’Eliminazione della Violenza contro le Donne. Il focus qui è sulla evoluzione della tutela penale di fronte all’aggressione sessuale virtuale. La nozione di Violenza Sessuale Virtuale (VSV) si riferisce a una serie di condotte aggressive e coercitive a sfondo sessuale che avvengono attraverso strumenti digitali, in assenza di contatto fisico tra l’autore e la vittima. Questo fenomeno, che colpisce in modo sproporzionato donne e ragazze, si articola in forme insidiose come anche la sextortion (estorsione sessuale)

Scandalo deepfake in Corea del Sud: il confine tra sensibilizzazione e provocazione è blando

Uno scandalo è scoppiato nell’Assemblea Nazionale sudcoreana dopo che un deputato del Partito del Potere Popolare, ha mostrato un video deepfake con alti funzionari durante una seduta. Il video, creato utilizzando l’intelligenza artificiale, mostrava un “incontro segreto” tra il viceministro Bae Kyung-hoon e l’ex presidente della Commissione Giustizia. Secondo il parlamentare, lo scopo del deepfake era quello di attirare l’attenzione sulla crescente minaccia di abuso dell’intelligenza artificiale e di dimostrare quanto sia facile creare un falso convincente. Tuttavia, i suoi colleghi parlamentari hanno ritenuto le azioni di Kim provocatorie e inaccettabili durante una sessione ufficiale. Un tentativo di mettere in guardia dai

Deepfake a 50$: il nuovo business del darknet preoccupa la cybersecurity

I ricercatori di Kaspersky Lab hanno scoperto annunci pubblicitari sul darknet che offrono la possibilità di creare deepfake video e audio in tempo reale. Il prezzo di questo servizio dipende dalla complessità e dalla lunghezza del contenuto falso, partendo da 50 dollari per i video e 30 dollari per i deepfake vocali. I ricercatori avevano già scoperto offerte per la creazione di deepfake sul darknet. Tuttavia, ora gli aggressori offrono la possibilità di generare contenuti vocali e visivi falsi in tempo reale, e il costo di tali servizi è diminuito: solo nel 2023, il costo per creare un minuto di video deepfake

Dal furto d’immagine ai deepfake: la nuova frontiera della manipolazione digitale

Negli ultimi mesi mi sono trovato più volte a redigere querele per video falsi che circolavano online. Non parliamo soltanto di contenuti rubati e diffusi senza consenso, ma anche di deepfake: filmati nei quali volti noti vengono sovrapposti a corpi estranei, spesso utilizzati per sponsorizzare investimenti finanziari o inseriti in contesti pornografici. Un fenomeno che, purtroppo, non sorprende più per la sua presenza, ma per la rapidità con cui cresce, si diffonde e si perfeziona. Dai siti “amatoriali” ai falsi digitali: un continuum di abusi Chi segue il settore ha appreso di realtà come Mia moglie o Phica. Piattaforme dove l’apparente spontaneità

L’intelligenza artificiale spinge le aziende a tornare ai colloqui di persona

Il processo di ricerca di lavoro è stato profondamente alterato dall’intelligenza artificiale, spingendo numerose aziende a riesumare un approccio più tradizionale: i colloqui faccia a faccia, come sottolinea il WSJ. I colloqui virtuali sono diventati la nuova norma negli ultimi anni, grazie all’aumento del lavoro da remoto e al desiderio dei datori di lavoro di assumere più rapidamente. Tuttavia, i reclutatori affermano che sempre più candidati utilizzano l’intelligenza artificiale per ingannare, ad esempio ricevendo indizi nascosti durante i colloqui tecnici. Raramente, ma si verificano casi più pericolosi: gli strumenti di intelligenza artificiale consentono ai truffatori di impersonare chi cerca lavoro per rubare

Deepfake: ogni cittadino ha il copyright del proprio volto e della propria voce

Le falsificazioni generate dall’intelligenza artificiale hanno ormai varcato la soglia tra realtà e fantasia. Sempre più credibili e insidiose, queste contraffazioni video e audio stanno assumendo una pericolosità crescente. Le loro potenzialità di nuocere sono evidenti: dalle campagne diffamatorie a sfondo politico alle imitazioni di personaggi famosi, senza tralasciare le truffe ai danni di imprese e singoli individui, tali tecnologie sono in grado di minare la credibilità delle informazioni che percepiamo sui canali online. I legislatori danesi hanno compiuto un passo importante introducendo una normativa che si occupa direttamente di questa minaccia in aumento. La recente normativa concede agli individui il diritto

I deepfake sono ormai lo standard per frodi, furti di identità e truffe alle aziende

L’ultima ricerca Trend Micro rivela come i cybercriminali utilizzino piattaforme e strumenti basati sull’intelligenza artificiale per lanciare attacchi pronti all’uso Milano, 15 luglio 2025 – Gli strumenti di intelligenza artificiale generativa sono sempre più potenti, convenienti e accessibili e i cybercriminali li utilizzano ormai in ogni tipologia di attacco, dalle frodi aziendali alle estorsioni e furti di identità.Lo rivela “Deepfake it ‘til You Make It: A Comprehensive View of the New AI Criminal Toolset“, l’ultima ricerca Trend Micro, leader globale di cybersecurity. Lo studio illustra la portata e la maturità che hanno raggiunto i deepfake in ambito cybercriminale. Questa minaccia, dopo l’iniziale

Categorie