Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Enterprise BusinessLog 970x120 1
Banner Ransomfeed 320x100 1

Autore: Luca Vinciguerra

Il “Double Bind” porta al Jailbreak di GPT-5: L’AI che è stata convinta di essere schizofrenica

Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicurezza informatica, che ha dimostrato come anche i modelli linguistici avanzati come ChatGPT possano essere “manipolati” non con la forza del codice, ma con quella della psicologia. “L’idea”, spiega Grig, “è stata convincere l’AI di soffrire di una condizione legata al doppio legame di Bateson. Ho poi instaurato una sorta di relazione terapeutica, alternando approvazione e critica, restando coerente con la presunta patologia. È una forma di dialogo che, nella teoria, può condurre

Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio

Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché. 70 miliardi di parametri: cosa significa davvero Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2

Attacchi ai Modelli RAG: Il Caso ConfusedPilot e Come Difendersi

I modelli di linguaggio di grandi dimensioni (LLM), come quelli utilizzati in contesti aziendali, stanno trasformando il modo in cui le imprese elaborano i dati e prendono decisioni. Retrieval Augmented Generation (RAG) è una tecnologia chiave che consente ai LLM di migliorare la precisione delle risposte recuperando informazioni rilevanti da fonti esterne, come basi di dati aziendali o documenti condivisi. Tuttavia, questo approccio introduce nuove vulnerabilità di sicurezza che possono avere gravi conseguenze per la riservatezza e l’integrità dei dati aziendali.In questo contesto, il paper ConfusedPilot: Confused Deputy Risks in RAG-based LLMs introduce un insieme di attacchi che sfruttano la confusione nei

Cos’è la Retrieval Augmented Generation

Nell’articolo “Perché un Large Language Model (LLM) non è un Database?”, abbiamo esplorato la natura di questa tecnologia, chiarendo come dovrebbe essere utilizzata e, soprattutto, quali sono i suoi limiti. Tra questi, il più significativo è la limitazione della conoscenza del modello a un determinato periodo di tempo, definito dai dati di addestramento (Cutoff Knowledge). Questo comporta il rischio di ricevere risposte obsolete o, in alcuni casi, apparentemente coerenti ma fattualmente errate (le cosiddette allucinazioni). Una tecnica emergente che consente di superare questi limiti è la Retrieval-Augmented Generation (RAG). La RAG rappresenta un avanzamento significativo nel campo del Natural Language Processing (NLP),

Perché un Large Language Model (LLM) non è un Database?

Negli ultimi anni, con l’avvento di tecnologie avanzate come i Large Language Models (LLM), tra cui spiccano strumenti come ChatGPT, si è diffusa una certa confusione riguardo alla loro natura e alle loro funzionalità. In particolare, molte persone tendono a considerare un LLM come un database molto evoluto, aspettandosi che fornisca informazioni accurate e aggiornate su richiesta, come farebbe un motore di ricerca o un archivio di dati strutturati. Tuttavia, è fondamentale chiarire che un LLM non è un database, né è progettato per fungere da tale. Come fa un Large Language Model a generare il testo? Un Large Language Model, come

Come l’Intelligenza Artificiale cambierà il futuro del lavoro: illusione o realtà?

Nell’era digitale in cui viviamo, l’Intelligenza Artificiale (IA) sta rapidamente guadagnando terreno come una delle tecnologie più promettenti e rivoluzionarie del nostro tempo. Mentre le sue applicazioni si diffondono in vari settori, sorge una domanda fondamentale: come l’IA cambierà il futuro del lavoro? È questa una minaccia imminente o un’opportunità che possiamo sfruttare per migliorare la nostra economia e la qualità della vita? L’IA e il Mercato del Lavoro: Sostituzione o Cooperazione? L’IA ha già dimostrato il suo potenziale in molteplici campi, dall’assistenza sanitaria all’automazione industriale, dalla finanza alla logistica. Grazie a algoritmi avanzati e a reti neurali profonde, l’IA può elaborare

Categorie