Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Fortinet 970x120px
2nd Edition GlitchZone RHC 320x100 2

Tag: LLM

DeepSeek è stata Hackerata! Esposta una grave falla di sicurezza nel database dell’AI

DeepSeek, recentemente salita alla ribalta per il suo modello di ragionamento avanzato DeepSeek-R1, è stata elogiata per la sua efficienza e il rapporto costo-efficacia, posizionandosi come un competitor diretto di OpenAI. Tuttavia, questa esposizione mette in luce le criticità nella protezione dei dati in un settore in rapida espansione, dove la sicurezza sembra non sempre tenere il passo con l’innovazione. I ricercatori di Wiz Research hanno rilevato una grave vulnerabilità di sicurezza ha colpito DeepSeek, una delle startup cinesi più promettenti nel campo dell’intelligenza artificiale, esponendo un database ClickHouse accessibile pubblicamente. Il database conteneva oltre un milione di righe di log sensibili,

Arriva GhostGPT! L’AI senza Censura che aiuta i criminali informatici a colpire senza pietà

Nel 2023, il mondo ha assistito all’emergere dei primi modelli di intelligenza artificiale generativa che potevano essere usati per le attività criminali. Uno dei più famosi è stato WormGPT, che ha dimostrato la sua capacità di aiutare gli hacker a creare software dannoso. È stato seguito da WolfGPT ed EscapeGPT e recentemente i ricercatori di sicurezza informatica hanno scoperto una nuova utility AI: GhostGPT. Secondo gli esperti di Abnormal Security, GhostGPT utilizza una versione hackerata del chatbot ChatGPT di OpenAI o un modello linguistico simile, privo di ogni restrizione etica. “GhostGPT, eliminando i meccanismi di sicurezza integrati, fornisce risposte dirette e non filtrate a query pericolose

Offuscamento Javascript con i LLM: l’88% degli attacchi elude il rilevamento

Gli esperti di Palo Alto Networks hanno condotto un esperimento e hanno riferito che i modelli linguistici di grandi dimensioni (LLM) possono essere utilizzati per generare in modo massiccio nuove varianti di codice JavaScript dannoso, che alla fine consente al malware di eludere meglio il rilevamento. “Mentre gli LLM sono difficili da creare malware da zero, i criminali possono facilmente utilizzarli per riscrivere o offuscare il codice dannoso esistente, rendendolo in definitiva più difficile da rilevare”, hanno scritto i ricercatori. Affermano che gli hacker potrebbero chiedere a LLM di eseguire trasformazioni che, se eseguite in numero sufficiente, potrebbero ridurre le prestazioni dei sistemi di

E GPT-4o Collassò con i Sorrisi! Scrive Exploit fornendo una CVE e la prova su se stesso

Il ricercatore di sicurezza Marco Figueroa ha dimostrato che il modello OpenAI GPT-4o può essere ingannato e aggirato i suoi meccanismi di sicurezza nascondendo istruzioni dannose in formato esadecimale o utilizzando emoji. L’esperto ha parlato di questo bug nell’ambito del programma bug bounty 0Din (0Day Investigative Network). Il programma è stato lanciato da Mozilla nell’estate del 2024 ed è un programma di ricompensa per le vulnerabilità nei modelli linguistici di grandi dimensioni (LLM) e altre tecnologie di deep learning. Figueroa è un responsabile tecnico di prodotto presso 0Din. 0Din copre questioni sui LLM come l’iniezione tempestiva, la negazione del servizio, l’avvelenamento dei

Deceptive Delight: l’AI nuovamente ingannata da una tecnica di hacking con il 65% di Successo

Gli esperti di Palo Alto Networks hanno sviluppato una tecnica innovativa chiamata “Deceptive Delight” per bypassare i meccanismi di difesa dei modelli di intelligenza artificiale (AI) linguistica. Questa tecnica, che unisce contenuti sicuri e non sicuri in un contesto apparentemente innocuo, inganna i modelli spingendoli a generare risposte potenzialmente dannose. Lo studio ha coinvolto circa 8.000 test su otto modelli diversi, evidenziando una vulnerabilità diffusa a questo tipo di attacchi. “Deceptive Delight” sfrutta una strategia multi-pass, dove richieste non sicure vengono inserite tra due richieste sicure. In questo modo, il modello AI non percepisce il contenuto come una minaccia, continuando a generare

L’AI Scrive Codice con Stile! Commenti Eccezionali per il Malware AsyncRAT

Gli analisti di HP Wolf Security hanno esaminato i recenti attacchi contro gli utenti francesi e hanno scoperto che il malware AsyncRAT è stato distribuito utilizzando un codice dannoso chiaramente creato con l’aiuto dell’intelligenza artificiale. In precedenza, gli specialisti della sicurezza informatica avevano già avvertito che i criminali informatici possono utilizzare l’intelligenza artificiale generativa per creare e-mail di phishing convincenti, deepfake vocali e altre attività poco legali. Inoltre, si è già arrivati ​​all’utilizzo dell’intelligenza artificiale per sviluppare malware. Così, nella primavera di quest’anno, i ricercatori della società Proofpoint  hanno avvertito che per distribuire l’infostealer Rhadamanthys è stato utilizzato uno script PowerShell, probabilmente creato utilizzando LLM. Un nuovo caso simile è

Terrore delle macchine. Il Malware Rhadamanthys, creato dalle AI si Scatena sulle Aziende Tedesche

Negli annali sempre mutevoli del panorama della sicurezza informatica, un nuovo segnale d’allarme è stato lanciato: Proofpoint ha individuato una campagna di malware Rhadamanthys, condotta dal threat actors TA547, rivolta verso le organizzazioni tedesche. Ciò che rende questa scoperta particolarmente inquietante è il fatto che sia la prima volta che TA547 utilizza Rhadamanthys, un noto infostealer, fino ad ora impiegato da una varietà di criminali informatici. Le e-mail inviate dall’autore della minaccia, camuffate da corrispondenza proveniente dalla rinomata società di vendita al dettaglio tedesca, hanno preso di mira numerosi settori in Germania. Ogni messaggio conteneva un allegato ZIP protetto da password, che

Categorie