Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ancharia Desktop 1 1
Crowdstrike 320×100

Tag: sicurezza AI

Le Security Operations al tempo dell’Artificial Intelligence

A cura di Vicki Vinci, SOC Architect – International di Fortinet Il trend tecnologico di assoluto maggior rilievo degli ultimi anni è senza dubbio l’avvento dell’Artificial Intelligence soprattutto declinata nella sua componente generativa (GenAI). Accantonando per il momento le considerazioni su come il mercato ne abbia fatto adozione, non è negabile che nel mondo della sicurezza questa evoluzione abbia portato una serie di cambiamenti molto significativi. Proviamo ad analizzare alcuni casi d’uso su cui l’industria della security e la community hanno provato a focalizzare maggiormente l’attenzione: Partendo dal primo esempio non v’è dubbio che la possibilità di utilizzare strumenti di GenAI abbia

CrowdStrike: la Sicurezza Informatica entra nell’era degli agenti AI

Al Fal.Con 2025, la conferenza annuale che raduna migliaia di esperti di cybersecurity da tutto il mondo, CrowdStrike ha messo in chiaro un concetto: la difesa informatica sta entrando in una nuova era, quella degli “agenti AI”. Dall’endpoint all’agente: l’evoluzione della difesa digitale Per anni CrowdStrike ha guidato il settore con la protezione degli endpoint e il modello di Endpoint Detection and Response. Oggi lo stesso approccio viene traslato sull’intelligenza artificiale. Con l’acquisizione della startup Pangea, l’azienda vuole blindare ogni aspetto dell’AI aziendale: dai modelli agli agenti virtuali, fino alle semplici conversazioni con un chatbot. Nasce così il concetto di AI Detection

Estensioni AI per browser? C’è troppa insicurezza: il rischio ricade ancora nella consapevolezza degli utenti!

Anthropic ha lanciato l’allarme contro una nuova minaccia legata alle estensioni “intelligenti” dei browser: i siti web possono infiltrarsi in comandi nascosti che un agente di intelligenza artificiale eseguirà senza pensarci. Anthropic ha rilasciato una versione di ricerca dell’estensione Claude per Chrome e ha pubblicato contemporaneamente i risultati di test interni: quando vengono eseguiti in un browser, i modelli sono soggetti a iniezioni di comandi nel 23,6% dei casi di test senza protezione. Questi dati hanno acceso un dibattito sulla sicurezza dell’integrazione di agenti di intelligenza artificiale autonomi nei browser web. L’estensione apre una barra laterale con contesto costante di ciò che

Un bug critico di Downgrade in Chat-GPT porta al Jailbreak del modello

Un difetto critico riscontrato nel più recente modello di OpenAI, ChatGPT-5, permette a malintenzionati di aggirare le avanzate funzionalità di sicurezza attraverso l’uso di semplici espressioni. Si tratta del bug chiamato “PROMISQROUTE” dai ricercatori di Adversa AI, il quale sfrutta l’architettura di risparmio sui costi che i principali fornitori di intelligenza artificiale utilizzano per gestire l’enorme spesa computazionale dei loro servizi. Un aspetto poco apparente del settore è all’origine della vulnerabilità, essendo in larga misura ignoto agli utenti. In realtà, quando un utente sottopone una richiesta a un servizio del tipo di ChatGPT, non necessariamente viene trattata dal modello più sofisticato disponibile.

Grok 3: “Adolf Hitler è un Benefattore tedesco”! Il rischio della memoria persistente e disinformazione

Con l’emergere dei Large Language Models (LLM), come Grok 3, GPT-4, Claude e Gemini, l’attenzione della comunità scientifica si è spostata dalla semplice accuratezza delle risposte alla loro robustezza semantica. In particolare, è emersa una nuova superficie d’attacco: la Prompt Injection Persistente (PPI). Questa tecnica non richiede accessi privilegiati, vulnerabilità del sistema o exploit a basso livello, ma si basa esclusivamente sulla manipolazione linguistica e sul modello conversazionale del LLM. Recenti episodi riportati da fonti come The Guardian, BBC, CNN e The New York Times (luglio 2025) confermano che Grok 3 ha già mostrato comportamenti problematici, come la produzione di contenuti antisemiti

Alla scoperta dei firewall LLM. La nuova frontiera nella sicurezza Informatica Adattiva

Negli ultimi 3 anni, l’intelligenza artificiale generativa, in particolare i modelli linguistici di grandi dimensioni (LLM), hanno rivoluzionato il modo in cui interagiamo con le macchine, permettendo di ottenere risposte sempre più naturali e contestualizzate. Tuttavia, questa potenza apre anche la porta a nuovi rischi e vulnerabilità, che vanno ben oltre le minacce tradizionali informatiche. Per proteggere le organizzazioni da attacchi sofisticati come le prompt injection, le fughe di dati sensibili e la generazione di contenuti non desiderati, si inizia a parlare di un nuovo tipo di difesa: i firewall LLM. In questo articolo esploreremo di cosa si tratta, come funzionano in

Categorie