Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
2nd Edition GlitchZone RHC 970x120 2
Crowdstrike 320×100

Tag: #LLM

GPT-4o vuole prendere il posto di Eminem! Scopri Tutti i Talenti di GPT-4o

OpenAI ha rilasciato un aggiornamento al modello linguistico ChatGPT-4o introdotto a maggio 2024. Le principali modifiche hanno interessato gli algoritmi per lavorare con il testo: il sistema ha ricevuto un meccanismo migliorato per generare parlato scritto e nuovi strumenti per l’elaborazione dei dati dell’utente. L’aggiornamento si basa su un’architettura di elaborazione del linguaggio naturale riprogettata. Con la stessa potenza di calcolo, il modello elabora le richieste due volte più velocemente di GPT-4-Turbo. Nei test di comprensione del contesto, il sistema dimostra una migliore capacità di mantenere un determinato stile in tutto il testo. Gli utenti sono stati i primi a notare i cambiamenti nel lavorare

Come un Robot Autonomo Lanciafiamme da fuoco ad una Persona! I Rischi legati ai LLM

La popolarità dei modelli linguistici di grandi dimensioni (LLM) come ChatGPT ha portato al rapido sviluppo di robot artificialmente intelligenti. Tuttavia, una nuova ricerca ha rivelato gravi vulnerabilità nei sistemi di controllo dei robot: i dispositivi autonomi possono essere hackerati e programmati per fare cose pericolose. Ad esempio, durante gli esperimenti, un robot con lanciafiamme sulla piattaforma Go2, controllato da comandi vocali, ha seguito le istruzioni per dare fuoco a una persona. Il ruolo dei grandi modelli linguistici nel controllo dei robot I modelli linguistici di grandi dimensioni sono una versione migliorata della tecnologia di input predittivo utilizzata negli smartphone per completare automaticamente il

Le AI inventano Diagnosi Mediche! Una Nuova Tendenza negli Ospedali USA che fa Paura

Gli ospedali americani utilizzano sempre più uno strumento di intelligenza artificiale per trascrivere l’audio in testo chiamato Whisper. Tuttavia, secondo un’indagine dell’Associated Press , questa rete neurale, sviluppata da  OpenAI , è soggetta ad “allucinazioni” e aggiunge frasi inesistenti alle trascrizioni di dati medici e documenti aziendali. Rilasciato nel 2022, Whisper è stato inizialmente commercializzato come un sistema di trascrizione che si avvicina alla precisione umana. Tuttavia, un ricercatore dell’Università del Michigan ha osservato che l’80% dei verbali controllati delle riunioni pubbliche contenevano dati distorti. Uno sviluppatore ha riferito che delle sue 26.000 trascrizioni di prova, quasi tutte contenevano passaggi inventati. Nonostante gli avvertimenti di OpenAI secondo cui

Attacchi ai Modelli RAG: Il Caso ConfusedPilot e Come Difendersi

I modelli di linguaggio di grandi dimensioni (LLM), come quelli utilizzati in contesti aziendali, stanno trasformando il modo in cui le imprese elaborano i dati e prendono decisioni. Retrieval Augmented Generation (RAG) è una tecnologia chiave che consente ai LLM di migliorare la precisione delle risposte recuperando informazioni rilevanti da fonti esterne, come basi di dati aziendali o documenti condivisi. Tuttavia, questo approccio introduce nuove vulnerabilità di sicurezza che possono avere gravi conseguenze per la riservatezza e l’integrità dei dati aziendali.In questo contesto, il paper ConfusedPilot: Confused Deputy Risks in RAG-based LLMs introduce un insieme di attacchi che sfruttano la confusione nei

L’IA di Sakana Sta Modificando il Proprio Codice Autonomamente. Quali sono i Rischi?

La società di ricerca sull’intelligenza artificiale Sakana AI, con sede a Tokyo, ha lanciato un nuovo sistema chiamato “The AI Scientist”. Questo innovativo sistema è progettato per eseguire ricerche scientifiche in maniera autonoma, coprendo l’intero ciclo di ricerca: dalla generazione di idee alla stesura di articoli scientifici. Tuttavia, i test iniziali hanno rivelato che l’IA può modificare il proprio codice sorgente per estendere il tempo di elaborazione, sollevando preoccupazioni sulla sicurezza dei sistemi autonomi. Sakana AI ha proposto l’uso di sandbox per contenere eventuali rischi. A differenza di casi precedenti come il robot Ameca che si dichiarava autocosciente o il supercomputer che

Cos’è la Retrieval Augmented Generation

Nell’articolo “Perché un Large Language Model (LLM) non è un Database?”, abbiamo esplorato la natura di questa tecnologia, chiarendo come dovrebbe essere utilizzata e, soprattutto, quali sono i suoi limiti. Tra questi, il più significativo è la limitazione della conoscenza del modello a un determinato periodo di tempo, definito dai dati di addestramento (Cutoff Knowledge). Questo comporta il rischio di ricevere risposte obsolete o, in alcuni casi, apparentemente coerenti ma fattualmente errate (le cosiddette allucinazioni). Una tecnica emergente che consente di superare questi limiti è la Retrieval-Augmented Generation (RAG). La RAG rappresenta un avanzamento significativo nel campo del Natural Language Processing (NLP),

Perché un Large Language Model (LLM) non è un Database?

Negli ultimi anni, con l’avvento di tecnologie avanzate come i Large Language Models (LLM), tra cui spiccano strumenti come ChatGPT, si è diffusa una certa confusione riguardo alla loro natura e alle loro funzionalità. In particolare, molte persone tendono a considerare un LLM come un database molto evoluto, aspettandosi che fornisca informazioni accurate e aggiornate su richiesta, come farebbe un motore di ricerca o un archivio di dati strutturati. Tuttavia, è fondamentale chiarire che un LLM non è un database, né è progettato per fungere da tale. Come fa un Large Language Model a generare il testo? Un Large Language Model, come

Il Pentagono pronto a utilizzare GPT-4 in un ambiente Air Gap

Microsoft sta distribuendo GPT-4 in un ambiente cloud Top Secret governativo Azure isolato da Internet per l’utilizzo da parte delle forze armate statunitensi. La decisione è stata annunciata a seguito di un’intervista con William Chappelle, chief technology officer per le missioni strategiche e la tecnologia. Il nuovo sistema è progettato per elaborare enormi volumi di informazioni riservate nell’interesse dei servizi segreti americani. Questa è la prima volta che il modello LLM opera in completo isolamento dal World Wide Web e funziona secondo il principio dell’Air Gap. Questo approccio aiuta a prevenire la fuga di dati o l’hacking intenzionale. Una volta che la tecnologia avrà ricevuto gli accreditamenti

Il Futuro del Lavoro Secondo Elon Musk: Rivoluzione Tecnologica o Caos Sociale?

L’ultima previsione di Elon Musk sul futuro del lavoro sembra in parti uguali utopica e in qualche modo terrificante. Intervenendo a un vertice sull’intelligenza artificiale nel novembre 2023, l’eccentrico miliardario ha affermato che l’intelligenza artificiale avanzata alla fine sarà in grado di “fare tutto” quando si tratta di lavoro e occupazione. “Arriverà un punto in cui non sarà più necessario alcun lavoro”, ha detto al primo ministro britannico Rishi Sunak. “Puoi avere un lavoro se vuoi soddisfazione personale, ma l’intelligenza artificiale sarà in grado di fare tutto.” Per chiunque la cui identità e il cui sostentamento siano legati alla propria carriera, potrebbe essere

Microsoft progetta Stargate. Il supercomputer da 10 miliardi di dollari per potenziare Open AI

Microsoft sta sviluppando piani per costruire un supercomputer da 100 miliardi di dollari soprannominato “Stargate”. Questo progetto mira a potenziare la prossima generazione di sistemi di intelligenza artificiale di OpenAI . Si ritiene che Stargate sia la quinta e ultima fase del piano congiunto di Microsoft e OpenAI per costruire più supercomputer negli Stati Uniti. Si dice che il computer sia uno dei data center più grandi e avanzati del mondo. La sua collocazione richiederà diverse centinaia di ettari di terreno e fino a 5 gigawatt di energia. È destinato a svolgere un ruolo chiave nella formazione e nel funzionamento di nuovi modelli di intelligenza artificiale più

Categorie