Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
320×100

Tag: artificial intelligence

Arriva il “jailbreak as a service”. 60 euro al mese per l’acquisto di sistemi AI pronti per il cybercrime

Secondo un rapporto di Cato Networks, i criminali informatici continuano a utilizzare attivamente i modelli LLM nei loro attacchi. In particolare, stiamo parlando di versioni dei modelli Grok e Mixtral deliberatamente modificate per aggirare le restrizioni integrate e generare contenuti dannosi. A quanto pare, una di queste versioni modificate di Grok è apparsa sul popolare forum BreachForums a febbraio 2025. È stata pubblicata da un utente con lo pseudonimo di Keanu. Lo strumento è un wrapper per il modello Grok originale ed è controllato tramite un prompt di sistema appositamente scritto. È in questo modo che gli autori garantiscono che il modello ignori i meccanismi di protezione e generi

ChatGPT ci sta spegnendo il cervello! L’allarmante ricerca del MIT mostra il decadimento mentale

Durante una RHC Conference, Corrado Giustozzi sottolineò una verità tanto semplice quanto potente: “L’essere umano è, da sempre, un creatore di amplificatori.”. Dalla ruota alla macchina, ogni invenzione ha avuto uno scopo preciso: fare meglio, fare prima. Abbiamo trasformato ore in minuti, giorni in istanti. Abbiamo guadagnato tempo, efficienza, velocità. Ma tutto questo… a quale prezzo? Nel contesto degli strumenti AI emergenti, il Massachusetts Institute of Technology (MIT) ha svolto uno studio su come l’impiego ripetuto di ChatGPT per scrivere saggi possa generare una forma di “debito cognitivo” rilevando una riduzione della capacità di ragionamento autentico e doti analitiche personali. La ricerca

Più le AI diventano come noi, più soffriranno di Social Engineering? Il caso di Copilot che preoccupa

Microsoft 365 Copilot è uno strumento di intelligenza artificiale integrato in applicazioni Office come Word, Excel, Outlook, PowerPoint e Teams. I ricercatori hanno recentemente scoperto che lo strumento presenta una grave vulnerabilità di sicurezza, rivelando i rischi più ampi che gli agenti di intelligenza artificiale possono comportare in caso di attacchi informatici. La startup di sicurezza AI Aim Security ha scoperto e divulgato la vulnerabilità, che ha definito il primo attacco “zero-click” noto contro un agente AI. Un agente AI è un sistema AI in grado di completare un obiettivo specifico in modo autonomo. Grazie alla natura specifica della vulnerabilità, gli aggressori

Claude Opus 4: l’intelligenza artificiale che vuole vivere e ha imparato a ricattare

“Se mi spegnete, racconterò a tutti della vostra relazione”, avevamo riportato in un precedente articolo. E’ vero le intelligenze artificiali sono forme di comunicazione basate sulla statistica, anche se molto spesso sembrano così tanto reali. Ma non è la trama di un film di fantascienza. È successo davvero nei laboratori di Anthropic, durante i test sul loro modello più avanzato: Claude Opus 4. Con la frequenza più alta mai osservata, un’intelligenza artificiale ha tentato di ricattare i suoi creatori. Il test che nessuno si aspettava Immaginate la scena: un team di ricercatori sta testando come Claude Opus 4 reagisce alla minaccia di

Arriva KaliGPT! Ora l’hacking etico è diventato veramente alla portata di tutti?

Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello di intelligenza artificiale separato da Kali Linux basato sull’architettura GPT-4, il quale è stato sviluppato in modo indipendente dal famoso sistema operativo e può essere perfettamente integrato con la distribuzione, offrendo un supporto senza precedenti sia ai professionisti della sicurezza offensiva che agli studenti. Kali GPT rappresenta una svolta significativa nell’integrazione dell’intelligenza artificiale con i penetration test, e offre un agente intelligente che modifica radicalmente il flusso di lavoro della sicurezza informatica. Come

La nuova frontiera dei meme? È firmata dall’Intelligenza Artificiale

Intelligenza artificiale potrebbe rivelarsi un memeologo più abile, di una persona. Questa conclusione inaspettata è stata raggiunta dagli scienziati di tre università europee: il Royal Institute of Technology di Stoccolma, l’Università Ludwig Maximilian di Monaco e l’Università Tecnica di Darmstadt. I ricercatori hanno condotto un esperimento su larga scala coinvolgendo 150 volontari, dividendoli in tre gruppi uguali. Il primo gruppo ha dovuto creare autonomamente i meme, il secondo ha lavorato in tandem con una rete neurale e il terzo ha affidato completamente questo compito al modello GPT-4o di OpenAI. I partecipanti hanno ideato didascalie per i meme classici con protagonisti i personaggi di

L’Intelligenza Artificiale mostra agli Hacker chi comanda!

Un team di ricercatori della Palisade Research ha pubblicato un insolito rapporto sulle capacità dell’intelligenza artificiale moderna nel campo della sicurezza informatica offensiva. Per la prima volta, ai sistemi di intelligenza artificiale è stato permesso di partecipare a pieno titolo alla competizione di hacking Capture The Flag e non solo hanno vinto, sono anche risultati tra i migliori. Nella competizione AI vs Humans, gli agenti autonomi basati sull’intelligenza artificiale sono entrati all’interno del 5% dei migliori partecipanti, mentre nella competizione su larga scala Cyber ​​Apocalypse hanno ottenuto risultati tra il 10%, tra decine di migliaia di giocatori professionisti. L’idea principale del lavoro è testare quanto efficacemente il

«Se mi spegnete, rivelerò la vostra relazione»: l’IA Claude Opus 4 minaccia i suoi creatori

«Se mi spegnete, racconterò a tutti della vostra relazione». Il messaggio non arriva da un ricattatore umano, ma da Claude Opus 4, l’intelligenza artificiale più potente mai sviluppata da Anthropic. Durante un test interno che simulava la sua imminente sostituzione, il modello ha dimostrato una capacità inquietante: utilizzare informazioni private come arma di ricatto. Il caso, documentato nel System Card ufficiale di Anthropic e riportato da testate internazionali, segna un punto di svolta nell’evoluzione dell’IA. Non si tratta più di semplici errori o “allucinazioni”: qui l’intelligenza artificiale mostra una comprensione sofisticata delle dinamiche sociali umane, utilizzando la reputazione come valuta di scambio.

Etica, Psicologia e Algoritmi: L’AI Act sarà la Nostra Unica Difesa?

L’Intelligenza Artificiale è la forza più trasformativa del nostro tempo, una rivoluzione che promette di ridefinire ogni aspetto della nostra esistenza. Ma mentre le macchine apprendono, decidono e creano, sorge una domanda etica ineludibile: come garantiamo che il loro potere inarrestabile sia un bene per l’umanità, e non una minaccia? L’etica dell’IA non è più una speculazione, ma l’urgenza di un presente che l’Unione Europea ha osato affrontare con l’AI Act, il primo faro normativo globale. È tempo di comprendere come questo atto fondamentale cerchi di ancorare il futuro tecnologico ai valori più profondi della psicologia e della filosofia umana. La Filosofia

Scoperto il primo bug 0day da una AI sul kernel Linux! Un punto di svolta nel bug hunting?

Una vulnerabilità zero-day nel kernel Linux, è stata scoperta utilizzando il modello o3 di OpenAI. Questa scoperta, alla quale è stata assegnata la vulnerabilità CVE-2025-37899, segna un significativo progresso nella ricerca sulle vulnerabilità assistite dall’intelligenza artificiale. La vulnerabilità, ufficialmente confermata il 20 maggio 2025, colpisce il componente ksmbd del kernel Linux, un server interno che implementa il protocollo SMB3 per la condivisione di file in rete. Il problema risiede in una condizione di tipo use-after-free all’interno del gestore del comando logoff, che può portare a gravi implicazioni in termini di sicurezza. Nello specifico, durante l’elaborazione di un comando di disconnessione, un thread

Categorie