Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
2nd Edition GlitchZone RHC 970x120 2
TM RedHotCyber 320x100 042514

Tag: large language model

Come un Robot Autonomo Lanciafiamme da fuoco ad una Persona! I Rischi legati ai LLM

La popolarità dei modelli linguistici di grandi dimensioni (LLM) come ChatGPT ha portato al rapido sviluppo di robot artificialmente intelligenti. Tuttavia, una nuova ricerca ha rivelato gravi vulnerabilità nei sistemi di controllo dei robot: i dispositivi autonomi possono essere hackerati e programmati per fare cose pericolose. Ad esempio, durante gli esperimenti, un robot con lanciafiamme sulla piattaforma Go2, controllato da comandi vocali, ha seguito le istruzioni per dare fuoco a una persona. Il ruolo dei grandi modelli linguistici nel controllo dei robot I modelli linguistici di grandi dimensioni sono una versione migliorata della tecnologia di input predittivo utilizzata negli smartphone per completare automaticamente il

E GPT-4o Collassò con i Sorrisi! Scrive Exploit fornendo una CVE e la prova su se stesso

Il ricercatore di sicurezza Marco Figueroa ha dimostrato che il modello OpenAI GPT-4o può essere ingannato e aggirato i suoi meccanismi di sicurezza nascondendo istruzioni dannose in formato esadecimale o utilizzando emoji. L’esperto ha parlato di questo bug nell’ambito del programma bug bounty 0Din (0Day Investigative Network). Il programma è stato lanciato da Mozilla nell’estate del 2024 ed è un programma di ricompensa per le vulnerabilità nei modelli linguistici di grandi dimensioni (LLM) e altre tecnologie di deep learning. Figueroa è un responsabile tecnico di prodotto presso 0Din. 0Din copre questioni sui LLM come l’iniezione tempestiva, la negazione del servizio, l’avvelenamento dei

Deceptive Delight: l’AI nuovamente ingannata da una tecnica di hacking con il 65% di Successo

Gli esperti di Palo Alto Networks hanno sviluppato una tecnica innovativa chiamata “Deceptive Delight” per bypassare i meccanismi di difesa dei modelli di intelligenza artificiale (AI) linguistica. Questa tecnica, che unisce contenuti sicuri e non sicuri in un contesto apparentemente innocuo, inganna i modelli spingendoli a generare risposte potenzialmente dannose. Lo studio ha coinvolto circa 8.000 test su otto modelli diversi, evidenziando una vulnerabilità diffusa a questo tipo di attacchi. “Deceptive Delight” sfrutta una strategia multi-pass, dove richieste non sicure vengono inserite tra due richieste sicure. In questo modo, il modello AI non percepisce il contenuto come una minaccia, continuando a generare

L’IA di Sakana Sta Modificando il Proprio Codice Autonomamente. Quali sono i Rischi?

La società di ricerca sull’intelligenza artificiale Sakana AI, con sede a Tokyo, ha lanciato un nuovo sistema chiamato “The AI Scientist”. Questo innovativo sistema è progettato per eseguire ricerche scientifiche in maniera autonoma, coprendo l’intero ciclo di ricerca: dalla generazione di idee alla stesura di articoli scientifici. Tuttavia, i test iniziali hanno rivelato che l’IA può modificare il proprio codice sorgente per estendere il tempo di elaborazione, sollevando preoccupazioni sulla sicurezza dei sistemi autonomi. Sakana AI ha proposto l’uso di sandbox per contenere eventuali rischi. A differenza di casi precedenti come il robot Ameca che si dichiarava autocosciente o il supercomputer che

L’AI Scrive Codice con Stile! Commenti Eccezionali per il Malware AsyncRAT

Gli analisti di HP Wolf Security hanno esaminato i recenti attacchi contro gli utenti francesi e hanno scoperto che il malware AsyncRAT è stato distribuito utilizzando un codice dannoso chiaramente creato con l’aiuto dell’intelligenza artificiale. In precedenza, gli specialisti della sicurezza informatica avevano già avvertito che i criminali informatici possono utilizzare l’intelligenza artificiale generativa per creare e-mail di phishing convincenti, deepfake vocali e altre attività poco legali. Inoltre, si è già arrivati ​​all’utilizzo dell’intelligenza artificiale per sviluppare malware. Così, nella primavera di quest’anno, i ricercatori della società Proofpoint  hanno avvertito che per distribuire l’infostealer Rhadamanthys è stato utilizzato uno script PowerShell, probabilmente creato utilizzando LLM. Un nuovo caso simile è

Microsoft progetta Stargate. Il supercomputer da 10 miliardi di dollari per potenziare Open AI

Microsoft sta sviluppando piani per costruire un supercomputer da 100 miliardi di dollari soprannominato “Stargate”. Questo progetto mira a potenziare la prossima generazione di sistemi di intelligenza artificiale di OpenAI . Si ritiene che Stargate sia la quinta e ultima fase del piano congiunto di Microsoft e OpenAI per costruire più supercomputer negli Stati Uniti. Si dice che il computer sia uno dei data center più grandi e avanzati del mondo. La sua collocazione richiederà diverse centinaia di ettari di terreno e fino a 5 gigawatt di energia. È destinato a svolgere un ruolo chiave nella formazione e nel funzionamento di nuovi modelli di intelligenza artificiale più

Categorie