Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Enterprise BusinessLog 970x120 1
2nd Edition GlitchZone RHC 320x100 2

Tag: gemini

Gemini Trifecta: tre bug critici rilevati nell’AI di Google

Gli esperti hanno svelato i dettagli di tre vulnerabilità, ora risolte, presenti nell’assistente di intelligenza artificiale Gemini di Google, collettivamente soprannominate “Gemini Trifecta” . Se sfruttate con successo, queste falle avrebbero potuto indurre l’intelligenza artificiale a rubare dati e ad altre attività dannose. Gli esperti di Tenable affermano che le vulnerabilità hanno interessato tre diversi componenti di Gemini: Iniezioni di prompt in Gemini Cloud Assist. Il bug ha permesso agli aggressori di compromettere servizi e risorse cloud sfruttando la capacità dello strumento di riepilogare i log estratti direttamente dai log grezzi. Ciò ha consentito loro di nascondere un prompt nell’intestazione User-Agent nelle

L’AI A2 ha rilevato 102 bug 0day e creato exploit nelle app Android a 1,77 dollari

I sistemi di intelligenza artificiale sono stati criticati per aver creato report di vulnerabilità confusi e per aver inondato gli sviluppatori open source di reclami irrilevanti. Ma i ricercatori dell’Università di Nanchino e dell’Università di Sydney hanno un esempio del contrario: hanno presentato un agente chiamato A2, in grado di trovare e verificare le vulnerabilità nelle applicazioni Android, simulando il lavoro di un bug hunter. Il nuovo sviluppo è la continuazione del precedente progetto A1, che era in grado di sfruttare i bug negli smart contract. Gli autori affermano che A2 ha raggiunto una copertura del 78,3% sulla suite di test Ghera

Grok 3: “Adolf Hitler è un Benefattore tedesco”! Il rischio della memoria persistente e disinformazione

Con l’emergere dei Large Language Models (LLM), come Grok 3, GPT-4, Claude e Gemini, l’attenzione della comunità scientifica si è spostata dalla semplice accuratezza delle risposte alla loro robustezza semantica. In particolare, è emersa una nuova superficie d’attacco: la Prompt Injection Persistente (PPI). Questa tecnica non richiede accessi privilegiati, vulnerabilità del sistema o exploit a basso livello, ma si basa esclusivamente sulla manipolazione linguistica e sul modello conversazionale del LLM. Recenti episodi riportati da fonti come The Guardian, BBC, CNN e The New York Times (luglio 2025) confermano che Grok 3 ha già mostrato comportamenti problematici, come la produzione di contenuti antisemiti

Google Gemini ora è anche per i minori! Ed Esplode la Polemica

Google ha dovuto affrontare un’ondata di condanne da parte di gruppi per i diritti umani e genitori preoccupati dopo il lancio di una nuova iniziativa: il suo chatbot basato sull’intelligenza artificiale Gemini è ora disponibile per i bambini sotto i 13 anni. Le organizzazioni della società civile hanno già presentato un reclamo formale alla Federal Trade Commission (FTC) degli Stati Uniti, sostenendo che il programma viola le norme sulla privacy dei minori su Internet. Nell’ambito del servizio per famiglie Family Link , i genitori hanno ricevuto email da Google che li informavano che i loro figli avrebbero potuto utilizzare Gemini per comunicare e completare

Deceptive Delight: l’AI nuovamente ingannata da una tecnica di hacking con il 65% di Successo

Gli esperti di Palo Alto Networks hanno sviluppato una tecnica innovativa chiamata “Deceptive Delight” per bypassare i meccanismi di difesa dei modelli di intelligenza artificiale (AI) linguistica. Questa tecnica, che unisce contenuti sicuri e non sicuri in un contesto apparentemente innocuo, inganna i modelli spingendoli a generare risposte potenzialmente dannose. Lo studio ha coinvolto circa 8.000 test su otto modelli diversi, evidenziando una vulnerabilità diffusa a questo tipo di attacchi. “Deceptive Delight” sfrutta una strategia multi-pass, dove richieste non sicure vengono inserite tra due richieste sicure. In questo modo, il modello AI non percepisce il contenuto come una minaccia, continuando a generare

Categorie