Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
UtiliaCS 970x120
Banner Ancharia Mobile 1

Tag: Claude

Estensioni AI per browser? C’è troppa insicurezza: il rischio ricade ancora nella consapevolezza degli utenti!

Anthropic ha lanciato l’allarme contro una nuova minaccia legata alle estensioni “intelligenti” dei browser: i siti web possono infiltrarsi in comandi nascosti che un agente di intelligenza artificiale eseguirà senza pensarci. Anthropic ha rilasciato una versione di ricerca dell’estensione Claude per Chrome e ha pubblicato contemporaneamente i risultati di test interni: quando vengono eseguiti in un browser, i modelli sono soggetti a iniezioni di comandi nel 23,6% dei casi di test senza protezione. Questi dati hanno acceso un dibattito sulla sicurezza dell’integrazione di agenti di intelligenza artificiale autonomi nei browser web. L’estensione apre una barra laterale con contesto costante di ciò che

Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio

Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché. 70 miliardi di parametri: cosa significa davvero Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2

Grok 3: “Adolf Hitler è un Benefattore tedesco”! Il rischio della memoria persistente e disinformazione

Con l’emergere dei Large Language Models (LLM), come Grok 3, GPT-4, Claude e Gemini, l’attenzione della comunità scientifica si è spostata dalla semplice accuratezza delle risposte alla loro robustezza semantica. In particolare, è emersa una nuova superficie d’attacco: la Prompt Injection Persistente (PPI). Questa tecnica non richiede accessi privilegiati, vulnerabilità del sistema o exploit a basso livello, ma si basa esclusivamente sulla manipolazione linguistica e sul modello conversazionale del LLM. Recenti episodi riportati da fonti come The Guardian, BBC, CNN e The New York Times (luglio 2025) confermano che Grok 3 ha già mostrato comportamenti problematici, come la produzione di contenuti antisemiti

Il lato oscuro di DeepSeek: prezzi bassi, utenti in fuga e il sogno nel cassetto dell’AGI

Nel 128° giorno dal lancio, DeepSeek R1 ha rivoluzionato l’intero mercato dei modelli di grandi dimensioni. Il suo impatto si è fatto sentire prima di tutto sul fronte dei costi: il solo annuncio di R1 ha contribuito ad abbassare i prezzi delle inferenze. OpenAI, ad esempio, ha aggiornato a giugno il costo del suo modello o3, riducendolo del 20% rispetto alla versione precedente o1. Questo cambiamento è avvenuto in un contesto competitivo sempre più serrato, dove l’efficienza economica è diventata una leva strategica fondamentale. L’utilizzo dei modelli DeepSeek su piattaforme di terze parti è esploso, ma non senza contraddizioni. La domanda è

Categorie