Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Crowdstriker 970×120
TM RedHotCyber 320x100 042514

Tag: Large Language Models

Red Hot Cyber Academy lancia il corso “Prompt Engineering: dalle basi alla Cybersecurity”

A partire da metà settembre, la Red Hot Cyber Academy inaugurerà un nuovo capitolo della propria offerta formativa con il lancio del corso “Prompt Engineering: dalle basi alla Cybersecurity”, il primo di una serie di percorsi dedicati all’intelligenza artificiale. Si tratta di un’iniziativa pensata per accompagnare professionisti, aziende e appassionati alla scoperta di strumenti e metodologie che stanno trasformando in profondità il mondo del lavoro e della tecnologia. Il docente del corso sarà Luca Vinciguerra, AI Engineer e Data Scientist in Almawave Spa (oltre che coordinatore del gruppo AI di Red Hot Cyber), con una solida esperienza nello sviluppo di soluzioni di

Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio

Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché. 70 miliardi di parametri: cosa significa davvero Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2

Grok 3: “Adolf Hitler è un Benefattore tedesco”! Il rischio della memoria persistente e disinformazione

Con l’emergere dei Large Language Models (LLM), come Grok 3, GPT-4, Claude e Gemini, l’attenzione della comunità scientifica si è spostata dalla semplice accuratezza delle risposte alla loro robustezza semantica. In particolare, è emersa una nuova superficie d’attacco: la Prompt Injection Persistente (PPI). Questa tecnica non richiede accessi privilegiati, vulnerabilità del sistema o exploit a basso livello, ma si basa esclusivamente sulla manipolazione linguistica e sul modello conversazionale del LLM. Recenti episodi riportati da fonti come The Guardian, BBC, CNN e The New York Times (luglio 2025) confermano che Grok 3 ha già mostrato comportamenti problematici, come la produzione di contenuti antisemiti

Alla scoperta dei firewall LLM. La nuova frontiera nella sicurezza Informatica Adattiva

Negli ultimi 3 anni, l’intelligenza artificiale generativa, in particolare i modelli linguistici di grandi dimensioni (LLM), hanno rivoluzionato il modo in cui interagiamo con le macchine, permettendo di ottenere risposte sempre più naturali e contestualizzate. Tuttavia, questa potenza apre anche la porta a nuovi rischi e vulnerabilità, che vanno ben oltre le minacce tradizionali informatiche. Per proteggere le organizzazioni da attacchi sofisticati come le prompt injection, le fughe di dati sensibili e la generazione di contenuti non desiderati, si inizia a parlare di un nuovo tipo di difesa: i firewall LLM. In questo articolo esploreremo di cosa si tratta, come funzionano in

Categorie