Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
L’intelligenza artificiale è ora diventata un business anche per il cybercrime

L’intelligenza artificiale è ora diventata un business anche per il cybercrime

17 Febbraio 2026 06:53

La criminalità informatica basata sull’intelligenza artificiale ha superato il periodo di sperimentazione ed è entrata in una fase più stabile e professionale, che rispecchia l’evoluzione di altri mercati clandestini ormai maturi.

Il dato emerge da “They Don’t Build the Gun, They Sell the Bullets.An Update on the State of Criminal AI”, l’ultimo studio di TrendAI, business unit di Trend Micro, leader globale nella sicurezza dell’intelligenza artificiale.

La ricerca ha analizzato servizi clandestini, malware e campagne di attacco basati sull’intelligenza artificiale a fine 2025. I risultati mostrano che i cybercriminali non inseguono più la novità, ma perfezionano le tecniche, riducono i costi e migliorano l’affidabilità degli attacchi basati su frodi, malware e deepfake. I precedenti studi di TrendAI avevano evidenziato l’utilizzo di chatbot jailbroken, truffe deepfake e attacchi isolati di tipo proof-of-concept. Gli ultimi risultati mostrano che queste idee si sono trasformate in servizi che possono essere noleggiati, riutilizzati e adottati su larga scala, anche senza competenze tecniche.

Advertising

“Le previsioni per il futuro non sono apocalittiche, ma incrementali”, afferma Marco Fanuli, Technical Director di TrendAI Italia, una business unit di Trend Micro. “Non assisteremo a un’improvvisa esplosione di caos guidato dall’intelligenza artificiale, ma a un costante perfezionamento professionale degli strumenti che vediamo già oggi. Questo tipo di progresso silenzioso è il modo che rende gli ecosistemi criminali più difficili da distruggere.”

La ricerca identifica le tre fasi che definiscono lo scenario dell’intelligenza artificiale criminale. La prima fase è quella del consolidamento. Nuovi strumenti di intelligenza artificiale “non censurati” continuano ad apparire sui forum underground, ma la maggior parte scompare rapidamente. I servizi che persistono sono quelli che offrono jailbreak e la possibilità di violare le principali piattaforme di intelligenza artificiale tramite prompt, piuttosto che modelli realmente indipendenti. I criminali sfruttano la portata e gli investimenti dei provider commerciali di AI invece di creare dal nulla.

La seconda fase è la comparsa dei primi malware in grado di generare o modificare codice maligno tramite query AI integrate o remote. Questi campioni rimangono limitati da vincoli pratici, ma segnalano uno spostamento verso progetti di malware più adattivi che possono variare da un attacco all’altro.

La terza fase vede la rapida diffusione della tecnologia deepfake nell’utilizzo criminale quotidiano. Strumenti per la sostituzione di volti, la clonazione della voce e la manipolazione delle immagini sono ora ampiamente disponibili a un costo minimo o nullo. Questo permette nuove ondate di frodi, tra cui truffe di impersonificazione, infiltrazioni all’interno di aziende, rapimenti virtuali e la diffusione di immagini sintetiche non consensuali, con gravi implicazioni per individui, organizzazioni e la fiducia generale nell’identità digitale.

L’analisi di TrendAI mostra che le capacità di difesa attualmente rimangono in vantaggio, grazie al rilevamento basato sull’intelligenza artificiale, all’intelligence sulle minacce e agli strumenti di indagine automatizzata. Tuttavia, questo vantaggio si sta riducendo man mano che i criminali imparano a estrarre più valore dalle stesse tecnologie, spesso più velocemente di quanto possano essere applicate le contromisure.

Lo studio conclude che il rischio più grave non è un incredibile miglioramento delle capacità cybercriminali, ma la normalizzazione della criminalità basata sull’intelligenza artificiale. Man mano che queste tecniche diventeranno più economiche e facili da utilizzare, si diffonderanno in tutto l’ecosistema del crimine informatico e vi rimarranno.

“Le organizzazioni devono prepararsi agli attacchi basati sull’intelligenza artificiale come condizione di base, anziché come un’anomalia emergente”, conclude Marco Fanuli. “Le frodi basate sui deepfake, l’abuso di identità e i malware AI non sono più minacce marginali, ma criticità che devono essere incluse nella strategia di sicurezza, nei processi di verifica e nella pianificazione della risposta agli incidenti”.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


1744358477148 300x300
Bajram Zeqiri è un esperto di cybersecurity, cyber threat intelligence e digital forensics con oltre vent'anni di esperienza, che unisce competenze tecniche, visione strategica creare la resilienza cyber per le PMI. Fondatore di ParagonSec e collaboratore tecnico per Red Hot Cyber, opera nella delivery e progettazione di diversi servizi cyber, SOC, MDR, Incident Response, Security Architecture, Engineering e Operatività. Aiuta le PMI a trasformare la cybersecurity da un costo a leva strategica per le PMI.
Aree di competenza: Cyber threat intelligence, Incident response, Digital forensics, Malware analysis, Security architecture, SOC/MDR operations, OSINT research