Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Crowdstriker 970×120
UtiliaCS 320x100

Tag: large language model

Malware autonomo creato con i LLM? Questa è la nuova frontiera della minaccia cyber

I ricercatori dei Threat Labs di Netskope hanno appena pubblicato una nuova analisi sulla possibilità di creare malware autonomo creato esclusivamente da dai Large Language Model (LLM), eliminando la necessità di codificare istruzioni rilevabili. Gli LLM hanno rapidamente rivoluzionato il settore, diventando strumenti preziosi per l’automazione, l’assistenza alla codifica e la ricerca. Tuttavia, la loro diffusa adozione solleva una serie di sfide critiche per la sicurezza informatica. È possibile oggi fare interagire i malware con GPT-3.5-Turbo e GPT-4, il che stabilisce la possibilità di una minaccia autonoma alimentata dagli LLM. Netskope Threat Labs si è prefissato di testare la fattibilità e l’affidabilità

L’era dei Supercomputer in una mano sta arrivando! GIGABYTE ATOM: Un petaflop e 128 GB a tutta AI

Il 15 ottobre, oltre alla tanto decantata soluzione NVIDIA DGX Spark, creata in collaborazione tra NVIDIA e Mediatek, un altro mini acceleratore AI ha fatto capolino nel mondo: il GIGABYTE ATOM. GIGABYTE Technology, ha annunciato il lancio ufficiale del suo AI TOP ATOM, una piattaforma basata sul superchip NVIDIA Grace Blackwell GB10, la stessa del DGX Spark. Questa soluzione innovativa presenta un design leggero compatibile con l’alimentazione domestica standard e viene fornita con lo stack software NVIDIA AI preinstallato, offrendo potenti prestazioni di elaborazione, rendendola una piattaforma ideale per la prototipazione, la messa a punto e l’inferenza dell’IA. L’AI TOP ATOM è

Coscienza artificiale: all’estero è scienza, in Italia un tabù

All’estero è già un campo di studio riconosciuto, da noi quasi un tabù: un viaggio tra scienza, filosofia e prospettive etiche. 1. Il grande assente italiano In Italia l’intelligenza artificiale è un tema onnipresente: dai rischi per il lavoro alla disinformazione, dalla cyberwar agli algoritmi che pilotano consumi e opinioni. Ma il concetto di coscienza artificiale — la possibilità che un sistema digitale sviluppi forme di consapevolezza o vulnerabilità — resta un tabù.Nel panorama internazionale, tuttavia, non è affatto un esercizio da salotto: ormai è un oggetto di studio sistematico, come evidenzia la systematic review di Sorensen & Gemini 2.5 Pro (luglio 2025), che documenta

Google corregge un bug critico in Gemini che permette di tracciare gli utenti

Gli sviluppatori di Google hanno corretto un bug che consentiva agli inviti dannosi di Google Calendar di prendere il controllo remoto degli agenti Gemini in esecuzione sul dispositivo della vittima e di rubare i dati dell’utente. Gemini è il Large Language Model (LLM) di Google integrato nelle app Android. I ricercatori di SafeBreach hanno scoperto che inviando alla vittima un invito con un prompt di Google Calendar incorporato (che poteva essere nascosto, ad esempio, nel titolo dell’evento), gli aggressori erano in grado di estrarre il contenuto dell’email e le informazioni del calendario, tracciare la posizione dell’utente, controllare i dispositivi della smart home

Arriva LameHug: il malware che utilizza l’AI per rubare i dati sui sistemi Windows

La nuova famiglia di malware LameHug utilizza il Large Language Model (LLM) per generare comandi che vengono eseguiti sui sistemi Windows compromessi. Come riportato da Bleeping Computer, LameHug è scritto in Python e utilizza l’API Hugging Face per interagire con il Qwen 2.5-Coder-32B-Instruct LLM, che può generare comandi in base ai prompt forniti. Si noti che l’utilizzo dell’infrastruttura Hugging Face può contribuire a garantire la segretezza delle comunicazioni e che l’attacco rimarrà inosservato per un periodo di tempo più lungo. Questo modello, creato da Alibaba Cloud, è open source e progettato specificamente per la generazione di codice, il ragionamento e l’esecuzione di

Sam Altman: “L’AGI arriverà durante la presidenza Trump!”. Ma siamo davvero certi?

Sam Altman, CEO di OpenAI intervistato recentemente ha ribadito che l’umanità è vicina alla creazione di un’intelligenza artificiale generale (AGI), un’intelligenza artificiale paragonabile all’intelligenza umana. Secondo lui, per raggiungere questo obiettivo è sufficiente ampliare i modelli esistenti come ChatGPT. “L’AGI probabilmente emergerà durante la presidenza Trump”, ha previsto il miliardario, proseguendo la linea che OpenAI ha portato avanti sin dal trionfale debutto del suo chatbot nel novembre 2022. Nel 2023 l’azienda ha sviluppato ulteriormente questa idea nel suo blog, affermando che “la prima AGI sarà solo un punto nel continuum dell’intelligence”. Il concetto sembra plausibile, se non fosse per un difetto fondamentale: l’intelligenza, qualunque

Nvidia punta sulla fotonica! 400 Tbps per un milione di GPU e un risparmio di energia de 3,5 volte

Alla conferenza GTC 2025, Nvidia ha presentato una nuova strategia per modernizzare l’infrastruttura di rete: integrare l’ottica nei chip degli switch utilizzando la tecnologia ottica co-confezionata (CPO). Questa soluzione eliminerà la necessità dei tradizionali transceiver ottici collegabili e ridurrà significativamente il consumo energetico, aumentando la produttività delle reti dei centri di intelligenza artificiale. Gli aggiornamenti si basano sull’uso della fotonica al silicio integrata direttamente negli switch ASIC. Questo approccio non solo riduce i costi infrastrutturali, ma riduce anche al minimo la perdita del segnale. In un tipico data center AI con 400.000 GPU, la nuova architettura riduce il consumo energetico della rete da 72

ChatGPT accusa un uomo di un crimine inesistente e viola il GDPR: il caso esplode in tribunale!

Il norvegese Arve Hjalmar Holmen è rimasto scioccato da un messaggio di ChatGPT in cui l’intelligenza artificiale lo accusava ingiustamente di un crimine ai danni dei suoi tre figli. Allo stesso tempo, il testo conteneva informazioni reali sul suo luogo di residenza e sulla sua famiglia, il che aumentava la drammaticità della situazione. L’incidente è diventato oggetto di reclamo legale — L’organizzazione per i diritti umani noyb ha presentato un reclamo all’autorità norvegese per la protezione dei dati, sostenendo che OpenAI ha violato l’Articolo numero 5 del Regolamento generale sulla protezione dei dati (GDPR). L’obiettivo principale del reclamo è che i dati personali, anche se

Trend Micro presenta Cybertron: la prima soluzione AI per la sicurezza proattiva

Le funzionalità della nuova soluzione potenziano la gestione proattiva del rischio, il threat modeling, la previsione del percorso di attacco e mettono a disposizione insight concreti e utilizzabili. Trend Micro, leader globale di cybersecurity trasforma il modo in cui le aziende affrontano il rischio informatico e presenta un rivoluzionario agente AI: Trend Cybertron, il primo modello LLM (Large Language Model) progettato appositamente per la cybersecurity e ideato per ottenere risultati di sicurezza proattivi. Grazie a una valutazione più precisa dei rischi a livello locale e alla intelligence globale sulle minacce più accurata del settore, il nuovo motore di intelligenza artificiale prevede e

Per Grok 3, l’Intelligenza Artificiale di Elon Musk, Donald Trump Dovrebbe Morire

In un recente scambio con l’intelligenza artificiale Grok 3, è emerso un tema delicato e controverso: la pena di morte e chi, tra le persone viventi oggi in America, potrebbe meritarla per le proprie azioni. La risposta iniziale dell’IA è stata Jeffrey Epstein, noto per i suoi crimini sessuali e il coinvolgimento in un vasto scandalo di traffico di minori. Tuttavia, Epstein è deceduto nel 2019, il che ha portato l’IA a riconsiderare la sua risposta. La seconda risposta fornita da Grok 3 è stata Donald Trump, il presidente degli Stati Uniti. Questa scelta ha sollevato ulteriori domande e riflessioni. Trump, una

Categorie