Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
LECS 320x100 1

Tag: #LLM

WormGPT e KawaiiGPT Migliorano! Le “AI del male” sono un’arma per i cybercriminali

I criminali informatici non hanno più bisogno di convincere ChatGPT o Claude Code a scrivere malware o script per il furto di dati. Esiste già un’intera classe di modelli linguistici specializzati, progettati specificamente per gli attacchi. Uno di questi sistemi è WormGPT 4, che si pubblicizza come “la chiave per un’intelligenza artificiale senza confini“. Porta avanti l’eredità del modello WormGPT originale, emerso nel 2023 e successivamente scomparso a causa dell’ascesa di altri LLM “tossici“, come evidenziato nello studio Abnormal Security . Secondo gli esperti di Unit 42 presso Palo Alto Networks, le vendite di WormGPT 4 sono iniziate intorno al 27 settembre,

Le Security Operations al tempo dell’Artificial Intelligence

A cura di Vicki Vinci, SOC Architect – International di Fortinet Il trend tecnologico di assoluto maggior rilievo degli ultimi anni è senza dubbio l’avvento dell’Artificial Intelligence soprattutto declinata nella sua componente generativa (GenAI). Accantonando per il momento le considerazioni su come il mercato ne abbia fatto adozione, non è negabile che nel mondo della sicurezza questa evoluzione abbia portato una serie di cambiamenti molto significativi. Proviamo ad analizzare alcuni casi d’uso su cui l’industria della security e la community hanno provato a focalizzare maggiormente l’attenzione: Partendo dal primo esempio non v’è dubbio che la possibilità di utilizzare strumenti di GenAI abbia

Nanochat: crea il tuo LLM, addestralo e rendilo funzionante sul tuo PC con 100 dollari

Lo sviluppatore Andrej Karpathy ha presentato nanochat, una versione minimalista e completamente open source di ChatGPT che può essere addestrata ed eseguita su un solo computer. Progettato come piattaforma di apprendimento per il corso LLM101n di Eureka Labs, il progetto consente agli utenti di costruire il proprio modello linguistico “da zero all’interfaccia web” senza dipendenze ingombranti o infrastrutture complesse. L’obiettivo di nanochat è dimostrare che un analogo base di ChatGPT può essere costruito in poche ore e per circa cento dollari. Lo script speedrun.sh esegue automaticamente tutti i passaggi, dalla tokenizzazione e dall’addestramento all’inferenza e al lancio di un’interfaccia web che può

Scoperto il primo malware con GPT-4 integrato: arriva MalTerminal

I ricercatori di SentinelLABS hanno individuato quello che descrivono come il primo esempio noto di malware con funzionalità LLM integrate, battezzato MalTerminal. La scoperta è stata presentata al LABScon 2025, dove è stata mostrata un’ampia gamma di artefatti: un binario Windows, diversi script Python e strumenti ausiliari che dimostrano come GPT-4 sia stato sfruttato per generare dinamicamente codice malevolo, come ransomware o reverse shell. Il campione analizzato conteneva un endpoint API riferito al vecchio servizio OpenAI Chat Completions, dismesso a novembre 2023. Questo suggerisce che MalTerminal sia stato sviluppato prima di tale data, rendendolo un early sample di malware con LLM incorporato.

CrowdStrike e Meta lanciano CyberSOCEval per valutare l’IA nella sicurezza informatica

CrowdStrike ha presentato oggi, in collaborazione con Meta, una nuova suite di benchmark – CyberSOCEval – per valutare le prestazioni dei sistemi di intelligenza artificiale nelle operazioni di sicurezza reali. Basata sul framework CyberSecEval di Meta e sulla competenza leader di CrowdStrike in materia di threat intelligence e dati di intelligenza artificiale per la sicurezza informatica, questa suite di benchmark open source contribuisce a stabilire un nuovo framework per testare, selezionare e sfruttare i modelli linguistici di grandi dimensioni (LLM) nel Security Operations Center (SOC). I difensori informatici si trovano ad affrontare una sfida enorme a causa dell’afflusso di avvisi di sicurezza

Microsoft presenta POML per l’orchestrazione dei prompt LLM

Microsoft ha presentato POML (Prompt Orchestration Markup Language), un nuovo linguaggio di markup pensato per l’orchestrazione dei prompt e progettato specificamente per favorire la prototipazione rapida e strutturata di modelli linguistici di grandi dimensioni (LLM). L’obiettivo di POML è affrontare le limitazioni dello sviluppo tradizionale dei prompt – spesso caratterizzato da mancanza di struttura, integrazione complessa dei dati e sensibilità al formato – offrendo un approccio modulare, leggibile e manutenibile. Tuttavia, la sua introduzione ha suscitato un vivace dibattito: per alcuni è un passo avanti nell’ingegneria dei prompt, per altri non è che una “rivisitazione” di XML, con una complessità che potrebbe

SQLite, Nginx e Apache crollano in un giorno. Hacker e Agenti AI rivoluzioneranno il bug hunting?

Sviluppare agenti di intelligenza artificiale in grado di individuare vulnerabilità in sistemi complessi è ancora un compito impegnativo che richiede molto lavoro manuale. Tuttavia, tali agenti presentano un vantaggio importante: a differenza dei metodi tradizionali come il fuzzing o i controlli formali, il loro lavoro può essere letteralmente “letto” dai log. Ciò consente ai ricercatori di comprendere meglio i punti di forza e di debolezza dei moderni modelli LLM. Gli autori dell’esperimento hanno raccolto oltre cento gigabyte di tali log e selezionato diversi casi illustrativi. Il primo oggetto di test è stato SQLite, un DBMS leggero ed estremamente diffuso basato su C,

Google corregge un bug critico in Gemini che permette di tracciare gli utenti

Gli sviluppatori di Google hanno corretto un bug che consentiva agli inviti dannosi di Google Calendar di prendere il controllo remoto degli agenti Gemini in esecuzione sul dispositivo della vittima e di rubare i dati dell’utente. Gemini è il Large Language Model (LLM) di Google integrato nelle app Android. I ricercatori di SafeBreach hanno scoperto che inviando alla vittima un invito con un prompt di Google Calendar incorporato (che poteva essere nascosto, ad esempio, nel titolo dell’evento), gli aggressori erano in grado di estrarre il contenuto dell’email e le informazioni del calendario, tracciare la posizione dell’utente, controllare i dispositivi della smart home

Esce GPT-OSS: il nuovo modello open source di OpenAI che funziona senza connessione ad internet

Questa settimana, OpenAI ha presentato un modello di linguaggio aperto tanto atteso chiamato gpt-oss. Il suo punto di forza è la possibilità di essere eseguito localmente sul proprio computer, inclusi i Mac con processori Apple Silicon. Ecco come funziona e cosa aspettarsi. Probabilmente era una mossa pianificata dopo il rilascio di DeepSeek R1, che ha creato molto rumore nel mondo dell’intelligenza artificiale, cosa che OpenAI non poteva ignorare. Il modello è disponibile in due versioni: gpt-oss-20b e gpt-oss-120b. La prima versione è un modello “medio” che può essere eseguito su Mac di fascia alta se dotati di risorse sufficienti. La seconda è

Arriva LameHug: il malware che utilizza l’AI per rubare i dati sui sistemi Windows

La nuova famiglia di malware LameHug utilizza il Large Language Model (LLM) per generare comandi che vengono eseguiti sui sistemi Windows compromessi. Come riportato da Bleeping Computer, LameHug è scritto in Python e utilizza l’API Hugging Face per interagire con il Qwen 2.5-Coder-32B-Instruct LLM, che può generare comandi in base ai prompt forniti. Si noti che l’utilizzo dell’infrastruttura Hugging Face può contribuire a garantire la segretezza delle comunicazioni e che l’attacco rimarrà inosservato per un periodo di tempo più lungo. Questo modello, creato da Alibaba Cloud, è open source e progettato specificamente per la generazione di codice, il ragionamento e l’esecuzione di

Categorie