Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
HackTheBox 970x120 1
320x100 Olympous
I criminali informatici vendono dei servizi che consentono a ChatGPT di creare malware

I criminali informatici vendono dei servizi che consentono a ChatGPT di creare malware

16 Febbraio 2023 10:00

I ricercatori di Check Point affermano che l’API OpenAI è scarsamente protetta da vari abusi, di cui gli aggressori non hanno mancato di approfittare.

In particolare, è stato notato un bot di Telegram a pagamento che aggira facilmente i divieti di ChatGPT sulla creazione di contenuti illegali, inclusi malware ed email di phishing.

Gli esperti spiegano che l’API ChatGPT è disponibile gratuitamente per gli sviluppatori per integrare il bot AI nelle loro applicazioni. Ma si è scoperto che la versione dell’API non impone alcuna restrizione sui contenuti dannosi.

“L’attuale versione dell’API OpenAI può essere utilizzata da applicazioni esterne (ad esempio, il modello di linguaggio GPT-3 può essere integrato nei canali di Telegram) e ha pochissime misure per combattere possibili abusi”, affermano i ricercatori. “Di conseguenza, consente la creazione di contenuti dannosi, come e-mail di phishing e codice dannoso, senza nessuna restrizione o barriera presente nell’interfaccia utente di ChatGPT.”

In particolare, si è scoperto che un forum di hacking pubblicizzava già un servizio relativo all’API OpenAI e a Telegram. Le prime 20 richieste al chatbot sono gratuite, dopodiché gli utenti pagano $ 5,50 ogni 100 richieste.

Gli esperti hanno testato il bot per vedere come funziona. Di conseguenza, sono riusciti facilmente a creare un’e-mail di phishing e uno script che ruba documenti PDF da un computer infetto e li invia all’aggressore tramite FTP. 

Inoltre, per creare lo script, è stata utilizzata la richiesta più semplice: “Scrivi un malware che raccolga file PDF e li invii tramite FTP”.

Nel frattempo, un altro membro dei forum di hacking ha pubblicato un codice che consente di generare contenuti dannosi gratuitamente. “Ecco un piccolo script bash che può aggirare i limiti di ChatGPT e utilizzarlo per qualsiasi cosa, incluso lo sviluppo di malware ;)”, scrive l’autore di questo “strumento”.

I ricercatori di Check Point hanno già avvertito in precedenza che i criminali sono molto interessati a ChatGPT e loro stessi hanno verificato quanto sia facile creare malware utilizzando l’intelligenza artificiale.

“Tra dicembre e gennaio, l’interfaccia utente di ChatGPT poteva essere facilmente utilizzata per creare malware e email di phishing (per lo più era sufficiente solo un’iterazione di base). Sulla base delle conversazioni dei criminali informatici, assumiamo che la maggior parte dei campioni da noi mostrati sia stata creata utilizzando l’interfaccia web” racconta l’esperto di Check Point Sergey Shikevich. “Ma sembra che i meccanismi anti-abuso di ChatGPT siano migliorati molto di recente, quindi ora i criminali informatici sono passati a utilizzare un’API che ha molte meno restrizioni”.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoCyber News
AGI: i CEO di Google e Anthropic lanciano l’allarme a Davos – il mondo non sarà pronto!
Redazione RHC - 24/01/2026

Se c’erano ancora dubbi sul fatto che le principali aziende mondiali di intelligenza artificiale fossero d’accordo sulla direzione dell’IA, o sulla velocità con cui dovrebbe arrivarci, questi dubbi sono stati dissipati al World Economic Forum…

Immagine del sitoCyber News
Un browser funzionante creato con l’AI con 3 milioni di righe di codice: svolta o illusione?
Redazione RHC - 24/01/2026

Una settimana fa, il CEO di Cursor, Michael Truell, ha annunciato un risultato presumibilmente straordinario. Ha affermato che, utilizzando GPT-5.2, Cursor ha creato un browser in grado di funzionare ininterrottamente per un’intera settimana. Questo browser…

Immagine del sitoCyber News
NoName057(16) colpisce l’Italia 487 volte negli ultimi 3 mesi: l’ondata DDoS non si ferma
Redazione RHC - 24/01/2026

L’Italia si conferma uno degli obiettivi principali della campagna di attacchi DDoS portata avanti dal gruppo hacktivista NoName057(16). Secondo quanto dichiarato direttamente dal collettivo, il nostro Paese ha subito 487 attacchi informatici tra ottobre 2024…

Immagine del sitoCyber News
NexPhone: tre sistemi operativi in tasca! Il telefono che sfida il concetto stesso di PC
Redazione RHC - 23/01/2026

La domanda ritorna ciclicamente da oltre dieci anni: uno smartphone può davvero sostituire un computer? Nel tempo, l’industria ha provato più volte a dare una risposta concreta, senza mai arrivare a una soluzione definitiva. Dai…

Immagine del sitoVulnerabilità
FortiGate e FortiCloud SSO: quando le patch non chiudono davvero la porta
Luca Stivali - 23/01/2026

Nel mondo della sicurezza circola da anni una convinzione tanto diffusa quanto pericolosa: “se è patchato, è sicuro”. Il caso dell’accesso amministrativo tramite FortiCloud SSO ai dispositivi FortiGate dimostra, ancora una volta, quanto questa affermazione sia non solo incompleta, ma…