Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
2nd Edition GlitchZone RHC 320x100 2

Tag: GenAI

Le Security Operations al tempo dell’Artificial Intelligence

A cura di Vicki Vinci, SOC Architect – International di Fortinet Il trend tecnologico di assoluto maggior rilievo degli ultimi anni è senza dubbio l’avvento dell’Artificial Intelligence soprattutto declinata nella sua componente generativa (GenAI). Accantonando per il momento le considerazioni su come il mercato ne abbia fatto adozione, non è negabile che nel mondo della sicurezza questa evoluzione abbia portato una serie di cambiamenti molto significativi. Proviamo ad analizzare alcuni casi d’uso su cui l’industria della security e la community hanno provato a focalizzare maggiormente l’attenzione: Partendo dal primo esempio non v’è dubbio che la possibilità di utilizzare strumenti di GenAI abbia

Intelligenza Artificiale Generativa: crescita esplosiva e sfide per la sicurezza

Di Umberto Pirovano, Senior Manager Technical Solutions di Palo Alto Networks L’Intelligenza Artificiale Generativa (GenAI) sta ridefinendo il panorama tecnologico e aziendale a una velocità sorprendente. Secondo il report di Palo Alto Networks “The State of Generative AI in 2025”, il traffico GenAI ha registrato un’impennata di oltre l’890% nel 2024. Questa crescita esplosiva è attribuibile alla maturazione dei modelli di AI, alla sempre più spinta automazione aziendale e a una maggiore diffusione, guidata da ritorni di produttività sempre più evidenti. L’aumento in termini di adozione e utilizzo segna un passaggio definitivo: la GenAI non è più una novità, ma una utility

Proofpoint: Allarme CISO italiani, l’84% teme un cyberattacco entro un anno, tra AI e burnout

Proofpoint pubblica il report “Voice of the CISO 2025”: cresce il rischio legato all’AI e rimane il problema umano, mentre i CISO sono a rischio burnout. L’84% dei CISO italiani prevede un attacco informatico materiale nel prossimo anno. Rischio umano e perdita di dati dovuta alla GenAI sono in cima alle loro preoccupazioni. Proofpoint, Inc., azienda leader nella cybersecurity e nella compliance, ha pubblicato oggi la quinta edizione annuale del suo report “Voice of the CISO”, che analizza le principali sfide, aspettative e priorità dei Chief Information Security Officer (CISO) a livello globale. Il report 2025, che ha coinvolto 1.600 CISO a

Google Gemini 2.0 Sotto Accusa: Può Eliminare le Filigrane dalle Immagini!

Gli utenti dei social media segnalano di aver trovato un nuovo modo per utilizzare il nuovo modello di intelligenza artificiale Gemini: rimuovere le filigrane dalle immagini, comprese quelle pubblicate da Getty Images e altre note banche dati fotografiche. La settimana scorsa, Google ha reso disponibile la funzionalità di generazione di immagini nel modello Flash Gemini 2.0, che consente di generare e modificare contenuti di immagini. Come hanno scoperto gli utenti, il modello presenta ancora poche restrizioni di protezione. Ad esempio, Gemini 2.0 Flash crea contenuti che raffigurano personaggi famosi e personaggi protetti da copyright senza alcuna riserva, e rimuove anche le filigrane dalle immagini. Come sottolineano gli utenti di X e

Attacchi ai Modelli RAG: Il Caso ConfusedPilot e Come Difendersi

I modelli di linguaggio di grandi dimensioni (LLM), come quelli utilizzati in contesti aziendali, stanno trasformando il modo in cui le imprese elaborano i dati e prendono decisioni. Retrieval Augmented Generation (RAG) è una tecnologia chiave che consente ai LLM di migliorare la precisione delle risposte recuperando informazioni rilevanti da fonti esterne, come basi di dati aziendali o documenti condivisi. Tuttavia, questo approccio introduce nuove vulnerabilità di sicurezza che possono avere gravi conseguenze per la riservatezza e l’integrità dei dati aziendali.In questo contesto, il paper ConfusedPilot: Confused Deputy Risks in RAG-based LLMs introduce un insieme di attacchi che sfruttano la confusione nei

Cos’è la Retrieval Augmented Generation

Nell’articolo “Perché un Large Language Model (LLM) non è un Database?”, abbiamo esplorato la natura di questa tecnologia, chiarendo come dovrebbe essere utilizzata e, soprattutto, quali sono i suoi limiti. Tra questi, il più significativo è la limitazione della conoscenza del modello a un determinato periodo di tempo, definito dai dati di addestramento (Cutoff Knowledge). Questo comporta il rischio di ricevere risposte obsolete o, in alcuni casi, apparentemente coerenti ma fattualmente errate (le cosiddette allucinazioni). Una tecnica emergente che consente di superare questi limiti è la Retrieval-Augmented Generation (RAG). La RAG rappresenta un avanzamento significativo nel campo del Natural Language Processing (NLP),

Perché un Large Language Model (LLM) non è un Database?

Negli ultimi anni, con l’avvento di tecnologie avanzate come i Large Language Models (LLM), tra cui spiccano strumenti come ChatGPT, si è diffusa una certa confusione riguardo alla loro natura e alle loro funzionalità. In particolare, molte persone tendono a considerare un LLM come un database molto evoluto, aspettandosi che fornisca informazioni accurate e aggiornate su richiesta, come farebbe un motore di ricerca o un archivio di dati strutturati. Tuttavia, è fondamentale chiarire che un LLM non è un database, né è progettato per fungere da tale. Come fa un Large Language Model a generare il testo? Un Large Language Model, come

Categorie