Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Desktop
LECS 320x100 1

Tag: #ai

Gemini Trifecta: tre bug critici rilevati nell’AI di Google

Gli esperti hanno svelato i dettagli di tre vulnerabilità, ora risolte, presenti nell’assistente di intelligenza artificiale Gemini di Google, collettivamente soprannominate “Gemini Trifecta” . Se sfruttate con successo, queste falle avrebbero potuto indurre l’intelligenza artificiale a rubare dati e ad altre attività dannose. Gli esperti di Tenable affermano che le vulnerabilità hanno interessato tre diversi componenti di Gemini: Iniezioni di prompt in Gemini Cloud Assist. Il bug ha permesso agli aggressori di compromettere servizi e risorse cloud sfruttando la capacità dello strumento di riepilogare i log estratti direttamente dai log grezzi. Ciò ha consentito loro di nascondere un prompt nell’intestazione User-Agent nelle

Elon Musk presenta Colossus II, il supercomputer AI da un gigawatt

Elon Musk ha condiviso una foto del complesso che ospita Colossus II, il primo cluster di intelligenza artificiale al mondo con una potenza di gigawatt. Elon Musk ha già affermato che il supercomputer Colossus 2, sviluppato da xAI, diventerà il primo centro di calcolo al mondo su scala gigawatt per la formazione dell’intelligenza artificiale. Il sistema, progettato per alimentare il chatbot Grok e altri progetti di intelligenza artificiale, utilizzerà 550.000 GPU Nvidia, tra cui chip GB200 e GB300. “Il nostro obiettivo è avvicinarci il più possibile alla verità assoluta”, ha affermato Elon Musk, sottolineando che Grok dovrebbe fornire le risposte più precise

Google spinge l’AI come ricerca predefinita: rischio blackout per editori e blog indipendenti

Google intende semplificare l’accesso degli utenti alla modalità AI consentendo loro di impostarla come ricerca predefinita (al posto dei link tradizionali). La modalità AI è una versione della ricerca Google che utilizza modelli linguistici di grandi dimensioni per riassumere le informazioni dal web, in modo che gli utenti possano trascorrere più tempo su Google, anziché cliccare sui link dei siti web. La nuova modalità AI nella ricerca di Google La modalità AI può rispondere a domande complesse, elaborare immagini, riassumere informazioni, creare tabelle, grafici e persino fornire supporto con il codice. Come sottolinea Bleeping Computer , la modalità AI è attualmente facoltativa

CrowdStrike Threat Hunting Report 2025: l’AI usata dal cybercrime per attacchi su larga scala

Oltre 320 aziende sono state violate da gruppi legati alla Corea del Nord(DPRK) con attacchi potenziati dall’AI generativa. Gli attori delle minacce sfruttano gli agenti AI rendendo i sistemi autonomi il nuovo perimetro di attacco dell’ambiente aziendale CrowdStrike ha pubblicato il Threat Hunting Report 2025, che rivela una nuova fase degli attacchi informatici moderni: gli avversari stanno sfruttando la GenAI per ampliare le operazioni e accelerare gli attacchi – prendendo sempre più di mira gli agenti di AI autonomi che stanno trasformando le attività aziendali. Il rapporto rivela come gli attori delle minacce stiano puntando agli strumenti utilizzati per sviluppare agenti AI

Nuovi ricatti: se non paghi, daremo tutti i tuoi dati in pasto alle intelligenze artificiali!

Il gruppo di hacker LunaLock ha aggiunto un nuovo elemento al classico schema di estorsione, facendo leva sui timori di artisti e clienti. Il 30 agosto, sul sito web Artists&Clients, che mette in contatto illustratori indipendenti con i clienti, è apparso un messaggio: gli aggressori hanno segnalato il furto e la crittografia di tutti i dati della risorsa. Gli hacker hanno promesso di pubblicare il codice sorgente del sito e le informazioni personali degli utenti nelle darknet se il proprietario non avesse pagato 50.000 dollari in criptovaluta. Ma la principale leva di pressione era la prospettiva di trasferire le opere e le

OpenAI mette i genitori al comando: arriva il parental control su ChatGPT

In un momento in cui la controversia sull’impatto dell’intelligenza artificiale sulla salute mentale giovanile va crescendo, l’introduzione di un controllo parentale per ChatGPT è stata annunciata come una misura da OpenAI. In un post sul blog pubblicato martedì, l’azienda di intelligenza artificiale con sede in California ha affermato di aver lanciato queste funzionalità in risposta alla necessità delle famiglie di supportare “la definizione di linee guida sane che si adattino alla fase di sviluppo unica di un adolescente”. Grazie a queste modifiche, i genitori potranno collegare i propri account ChatGPT a quelli dei propri figli, disattivare alcune funzionalità, tra cui la memoria

Verso Skynet: la Johns Hopkins University migliora le simulazioni di guerra con l’intelligenza artificiale

La Johns Hopkins University nel Maryland si sta preparando ad aggiornare i suoi strumenti di wargame basati sull’intelligenza artificiale per aiutare il Pentagono a identificare i punti deboli degli avversari nei conflitti reali. Il lavoro, condotto presso l’ Applied Physics Laboratory (APL) dell’università , prevede l’aggiornamento di due sistemi, Generative Wargaming (GenWar) e Strategic AI Gaming Engine (SAGE), utilizzando dati proprietari per i programmi del Dipartimento della Difesa. Il wargaming, utilizzato per mettere in pratica le decisioni in ambienti complessi e incerti, rimane uno strumento chiave per analizzare il comportamento umano in contesti complessi e incerti attraverso l’apprendimento esperienziale. Tuttavia, il wargaming

Panico da AI: stiamo entrando nella fase più pericolosa della rivoluzione digitale

Negli ultimi mesi, il dibattito sull’intelligenza artificiale ha assunto toni sempre più estremi. Da un lato, le grandi aziende che sviluppano e vendono soluzioni AI spingono narrazioni apocalittiche, avvertendo che chi non abbraccerà questa tecnologia rischia di essere tagliato fuori dal mercato, o addirittura di soccombere. Dall’altro lato, emergono indagini che raccontano una realtà ben diversa: la fiducia del pubblico e di molte imprese verso l’AI sta diminuendo, in alcuni casi in modo preoccupante. Negli Stati Uniti, questo fenomeno è già visto come un potenziale problema di sicurezza nazionale, perché un’adozione distorta o rallentata potrebbe far perdere terreno nella corsa globale alla

Vulnerabilità critica in Gemini CLI di Google: eseguibili comandi dannosi

È stata scoperta una grave vulnerabilità nello strumento recentemente rilasciato da Google, Gemini CLI , che consente agli aggressori di eseguire silenziosamente comandi dannosi e di far trapelare dati dai computer degli sviluppatori se determinati comandi sono abilitati sul sistema. La vulnerabilità è stata scoperta da Tracebit appena due giorni dopo il rilascio dello strumento. Il problema è stato immediatamente segnalato a Google e il 25 luglio è stato rilasciato l’aggiornamento 0.1.14, che ha eliminato la vulnerabilità. Gemini CLI è un’interfaccia a riga di comando per l’interazione con Gemini AI di Google, rilasciata il 25 giugno 2025. Lo strumento è progettato per

La fiducia degli americani nell’AI sta diminuendo ed è una questione di sicurezza nazionale

La fiducia degli americani nell’intelligenza artificiale sta diminuendo, nonostante l’accelerazione dei progressi globali in questo campo. Ciò indica un potenziale problema di sicurezza nazionale: legislatori di ogni partito, leader del settore, think tank e altri hanno avvertito che rimanere indietro rispetto alla Cina in materia di intelligenza artificiale metterebbe gli Stati Uniti in una posizione di svantaggio. Un sentimento pubblico negativo potrebbe minare il sostegno del Congresso e finanziario alla ricerca e allo sviluppo in questo campo. Ma alcune aziende di intelligenza artificiale stanno modificando i loro prodotti per dare ai clienti governativi un maggiore controllo sul comportamento dei modelli, sull’input dei

Categorie