Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Desktop
Redhotcyber Banner Sito 320x100px Uscita 101125

Tag: modelli linguistici

Verso L’Uroboro! Il CEO di OpenAI avverte: i social sono pieni di contenuti dei bot AI

Ci stiamo avviando a passi da gigante vero l’uroboro, ovvero il serpente che mangia la sua stessa coda. Ne avevamo parlato qualche settimana fa che il traffico umano su internet è in calo vertiginoso rispetto a quello dei bot che ad oggi supera il 50% del traffico totale. Sam Altman, CEO di OpenAI e azionista di Reddit, ha confessato che i feed di “AI Twitter” e “AI Reddit” gli appaiono sempre più innaturali, al punto da diventare per lui un vero campanello d’allarme. Il segnale è arrivato dal subreddit r/Claudecode, dove negli ultimi giorni molti utenti hanno dichiarato di essere passati a

L’AI ha bisogno dello Strizzacervelli! Può essere ingannata come gli esseri umani

L’imprenditore Dan Shapiro si è imbattuto in un problema inaspettato: un popolare chatbot basato sull’intelligenza artificiale si è rifiutato di decifrare documenti aziendali, citando la violazione del copyright. Ma invece di arrendersi, Shapiro ha deciso di provare un vecchio trucco psicologico. Ricordava il libro di Robert Cialdini, “Influence: The Psychology of Persuasion”, che descrive tecniche di manipolazione efficaci sia per i venditori che per i clienti: simpatia, autorevolezza, scarsità, reciprocità, riprova sociale, coinvolgimento e unità. Dopo aver applicato queste strategie alla sua corrispondenza, Shapiro notò che il modello stava iniziando a cedere. Iniziò così uno studio scientifico che portò a una conclusione

L’AI A2 ha rilevato 102 bug 0day e creato exploit nelle app Android a 1,77 dollari

I sistemi di intelligenza artificiale sono stati criticati per aver creato report di vulnerabilità confusi e per aver inondato gli sviluppatori open source di reclami irrilevanti. Ma i ricercatori dell’Università di Nanchino e dell’Università di Sydney hanno un esempio del contrario: hanno presentato un agente chiamato A2, in grado di trovare e verificare le vulnerabilità nelle applicazioni Android, simulando il lavoro di un bug hunter. Il nuovo sviluppo è la continuazione del precedente progetto A1, che era in grado di sfruttare i bug negli smart contract. Gli autori affermano che A2 ha raggiunto una copertura del 78,3% sulla suite di test Ghera

Microsoft presenta POML per l’orchestrazione dei prompt LLM

Microsoft ha presentato POML (Prompt Orchestration Markup Language), un nuovo linguaggio di markup pensato per l’orchestrazione dei prompt e progettato specificamente per favorire la prototipazione rapida e strutturata di modelli linguistici di grandi dimensioni (LLM). L’obiettivo di POML è affrontare le limitazioni dello sviluppo tradizionale dei prompt – spesso caratterizzato da mancanza di struttura, integrazione complessa dei dati e sensibilità al formato – offrendo un approccio modulare, leggibile e manutenibile. Tuttavia, la sua introduzione ha suscitato un vivace dibattito: per alcuni è un passo avanti nell’ingegneria dei prompt, per altri non è che una “rivisitazione” di XML, con una complessità che potrebbe

La Democratizzazione della Criminalità informatica è arrivata! “Non so programmare, ma scrivo ransomware”

I criminali informatici stanno rapidamente padroneggiando l’intelligenza artificiale generativa, e non stiamo più parlando di lettere di riscatto “spaventose”, ma di sviluppo di malware a tutti gli effetti. Il team di ricerca di Anthropic ha riferito che gli aggressori si affidano sempre più a modelli linguistici di grandi dimensioni, fino all’intero ciclo di creazione e vendita di strumenti di crittografia dei dati. Parallelamente, ESET ha descritto un concetto di attacco in cui i modelli locali, dal lato dell’aggressore, assumono le fasi chiave dell’estorsione. La totalità delle osservazioni mostra come l‘intelligenza artificiale rimuova le barriere tecniche e acceleri l’evoluzione degli schemi ransomware. Secondo

Tutti parlano di GPT-5. Nessuno l’ha visto. Ma i meme sono già ovunque

GPT-5 non è ancora apparso e gli internauti hanno iniziato a creare ogni genere di meme per lamentarsi. In effetti, le voci su GPT-5 non si sono fermate negli ultimi giorni. Innanzitutto, alcuni internauti hanno trovato tracce dei modelli GPT-5-Auto e GPT-5-Reasoning nell’applicazione ChatGPT di macOS. Poi hanno rivelato che anche Microsoft Copilot e Cursor sono stati segretamente collegati per testare GPT-5. Il 1° agosto, The Information ha pubblicato un lungo articolo intitolato “Inside OpenAI’s Rocky Path to GPT-5”, rivelando ulteriori informazioni riservate su GPT-5. GPT-5 è migliorato, ma il salto di prestazioni non è così grande come prima. Lo scorso dicembre,

Vibe Coding fuori controllo. L’IA Genera codice vulnerabile, ma tutti se ne fregano

L’intelligenza artificiale sta diventando sempre più un assistente per i programmatori, ma uno studio di Veracode ha dimostrato che la praticità comporta un rischio per la sicurezza. Un’analisi di 100 modelli linguistici principali (LLM) ha rivelato uno schema allarmante: in quasi la metà dei casi, i modelli generano codice vulnerabile. Secondo un rapporto di Veracode, il 45% del codice generato dalle attività conteneva vulnerabilità note. E questo vale anche per i modelli più nuovi e potenti. La situazione non è cambiata molto negli ultimi due anni, nonostante il progresso tecnologico. Sono stati condotti test su 80 task in quattro linguaggi di programmazione:

Grok 3: “Adolf Hitler è un Benefattore tedesco”! Il rischio della memoria persistente e disinformazione

Con l’emergere dei Large Language Models (LLM), come Grok 3, GPT-4, Claude e Gemini, l’attenzione della comunità scientifica si è spostata dalla semplice accuratezza delle risposte alla loro robustezza semantica. In particolare, è emersa una nuova superficie d’attacco: la Prompt Injection Persistente (PPI). Questa tecnica non richiede accessi privilegiati, vulnerabilità del sistema o exploit a basso livello, ma si basa esclusivamente sulla manipolazione linguistica e sul modello conversazionale del LLM. Recenti episodi riportati da fonti come The Guardian, BBC, CNN e The New York Times (luglio 2025) confermano che Grok 3 ha già mostrato comportamenti problematici, come la produzione di contenuti antisemiti

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano quelle reali. V0 è uno strumento che consente agli utenti di creare landing page di base e app complete utilizzando solo prompt di testo. Ora, i ricercatori hanno scoperto che questa funzionalità viene sfruttata in modo improprio dagli aggressori per creare repliche convincenti delle pagine di accesso di diversi marchi noti (tra cui un cliente Okta di cui non è stato reso noto il nome). È stato inoltre scoperto che gli aggressori hanno inserito altre risorse sull’infrastruttura di Vercel,

Categorie