Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x120
Banner Ransomfeed 320x100 1

Tag: AI

Codice Patriottico: da DDoSia e NoName057(16) al CISM, l’algoritmo che plasma la gioventù per Putin

Nel febbraio 2025 avevamo già osservato il funzionamento di DDoSIA, il sistema di crowd-hacking promosso da NoName057(16): un client distribuito via Telegram, attacchi DDoS contro obiettivi europei, premi in criptovalute.Una macchina semplice, brutale, ma efficace. Il suo punto di forza non è la sofisticazione tecnica, ma la capacità di mobilitare rapidamente migliaia di utenti, anche privi di esperienza, trasformandoli in cyber-mercenari occasionali. Bastano uno smartphone, un canale Telegram e un link di download per entrare nella “guerra patriottica”. Nessuna formazione, nessuna competenza, solo click automatizzati e una dashboard con i bersagli assegnati. Poi è arrivata l’Operazione Eastwood, guidata nei giorni scorsi da

Due varianti di WormGPT usano le API di Grok e Mixtral per produrre malware, phishing e truffe di ogni tipo

Due nuove varianti di WormGPT, un modello linguistico dannoso, sono state scoperte e analizzate nel 2025. Queste versioni sono basate sui modelli Grok e Mixtral e sono in grado di generare contenuti malevoli come email di phishing, truffe BEC e script malware senza alcuna restrizione. Sono state pubblicate sul forum criminale BreachForums tra ottobre 2024 e febbraio 2025. CATO Networks ha confermato l’autenticità delle due nuove versioni, create dagli utenti xzin0vich e Keanu. Entrambe le varianti sono accessibili tramite Telegram e offrono modalità di utilizzo su abbonamento o con pagamento una tantum. A differenza della prima versione di WormGPT basata su GPT-J,

Il Papa avverte: “L’IA non è il diavolo, ma può diventarlo senza etica”

Il capo della Chiesa cattolica ha espresso preoccupazione per il modo in cui i bambini e gli adolescenti di oggi interagiscono con le tecnologie digitali. A suo avviso, l’abbondanza di informazioni disponibili attraverso reti neurali e altri sistemi intelligenti può influire seriamente sullo sviluppo mentale e intellettuale delle giovani generazioni. Papa Leone XIV ha messo in guardia dai rischi che il rapido sviluppo dell’intelligenza artificiale potrebbe rappresentare per i giovani. Ha espresso la sua posizione alla Seconda Conferenza Annuale di Roma sull’IA, parte della quale si sta tenendo in Vaticano. Allo stesso tempo, il Pontefice ha osservato che l’intelligenza artificiale di per sé non rappresenta una

AI quantistica con 3 fotoni: la rivoluzione del campionamento è iniziata in Giappone

Gli scienziati hanno dimostrato per la prima volta che il campionamento quantistico di bosoni, precedentemente considerato uno strumento prevalentemente teorico, può essere applicato nella pratica. Un team di ricercatori dell’Okinawa Institute of Science and Technology (OIST) hanno sviluppato un sistema di riconoscimento delle immagini basato sull’interferenza quantistica delle particelle luminose. Il loro lavoro, pubblicato sulla rivista Optica Quantum, potrebbe rappresentare una svolta per la creazione di sistemi di intelligenza artificiale quantistica a basso consumo energetico. Il metodo si basa sul fenomeno per cui i fotoni attraversano un circuito ottico creano complessi schemi di interferenza. Questi schemi sono estremamente difficili da prevedere utilizzando l’informatica classica.

Arriva il “jailbreak as a service”. 60 euro al mese per l’acquisto di sistemi AI pronti per il cybercrime

Secondo un rapporto di Cato Networks, i criminali informatici continuano a utilizzare attivamente i modelli LLM nei loro attacchi. In particolare, stiamo parlando di versioni dei modelli Grok e Mixtral deliberatamente modificate per aggirare le restrizioni integrate e generare contenuti dannosi. A quanto pare, una di queste versioni modificate di Grok è apparsa sul popolare forum BreachForums a febbraio 2025. È stata pubblicata da un utente con lo pseudonimo di Keanu. Lo strumento è un wrapper per il modello Grok originale ed è controllato tramite un prompt di sistema appositamente scritto. È in questo modo che gli autori garantiscono che il modello ignori i meccanismi di protezione e generi

ChatGPT ci sta spegnendo il cervello! L’allarmante ricerca del MIT mostra il decadimento mentale

Durante una RHC Conference, Corrado Giustozzi sottolineò una verità tanto semplice quanto potente: “L’essere umano è, da sempre, un creatore di amplificatori.”. Dalla ruota alla macchina, ogni invenzione ha avuto uno scopo preciso: fare meglio, fare prima. Abbiamo trasformato ore in minuti, giorni in istanti. Abbiamo guadagnato tempo, efficienza, velocità. Ma tutto questo… a quale prezzo? Nel contesto degli strumenti AI emergenti, il Massachusetts Institute of Technology (MIT) ha svolto uno studio su come l’impiego ripetuto di ChatGPT per scrivere saggi possa generare una forma di “debito cognitivo” rilevando una riduzione della capacità di ragionamento autentico e doti analitiche personali. La ricerca

Implementazione di Modelli Multimodali con LLaVA

Scopri come costruire una versione leggera di LLaVA, un modello AI multimodale che combina testo e immagini. Utilizzando CLIP e TinyLlama, il progetto è pensato per ambienti a risorse limitate come Google Colab. Ideale per chi vuole capire il funzionamento dei modelli visione-linguaggio.

La corsa ai droni autonomi e la sfida tecnologica tra Russia e Ucraina

Il 2 giugno 2025, l’Institute for the Study of War (ISW) ha pubblicato un’analisi secondo cui Russia e Ucraina si trovano impegnate in una competizione strategica per sviluppare droni dotati di intelligenza artificiale (IA) e apprendimento automatico (machine learning), con l’obiettivo di ridurre la dipendenza dagli operatori umani, superare i limiti del riconoscimento visivo tradizionale e contrastare l’interferenza delle contromisure elettroniche. Entrambi i Paesi stanno cercando di integrare tali tecnologie in nuovi modelli, puntando a una progressiva automazione delle operazioni. Tuttavia, nessuna delle due nazioni ha ancora implementato questi sistemi su vasta scala nei teatri di guerra. Dal 2023, la Russia ha

Il Giappone frena sull’IA militare: niente armi che uccidono da sole. Serve il controllo umano

Il 6 giugno 2025, il Ministero della Difesa giapponese ha pubblicato le prime linee guida ufficiali sull’uso responsabile dell’intelligenza artificiale (IA) nelle apparecchiature militari. La notizia è stata riportata da NHK e Yonhap News Agency il 9 giugno. Le “Linee guida per l’applicazione responsabile dell’intelligenza artificiale nello sviluppo di apparecchiature” nascono dalla “Politica di base per la promozione dell’applicazione dell’IA” introdotta nel luglio 2024. Il documento punta a massimizzare l’efficacia dell’IA nei sistemi di difesa, minimizzando i rischi etici e operativi. Le Linee Guida propongono un sistema di classificazione del rischio per l’IA militare, suddividendo le apparecchiature in due categorie: “a basso

Missione Valigia: 80 TB per addestrare l’AI in incognito con destinazione Kuala Lumpur

All’inizio di marzo, quattro ingegneri cinesi sono arrivati ​​in Malesia da Pechino. Ognuno di loro ha portato con sé una valigia contenente quindici hard disk contenenti circa 80 terabyte di dati. Si trattava di fogli di calcolo, immagini e video utilizzati per addestrare un modello di intelligenza artificiale. L’azienda ha noleggiato circa 300 server con moderni chip Nvidia da un data center malese . Gli ingegneri hanno caricato i dati e hanno iniziato ad addestrare il modello, sperando di riportarlo in Cina. Da quando gli Stati Uniti hanno imposto restrizioni all’esportazione di chip di intelligenza artificiale avanzati, le aziende cinesi hanno cercato modi alternativi per accedere

Categorie