Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
2nd Edition GlitchZone RHC 970x120 2
UtiliaCS 320x100

Tag: #gpu

Dentro NVIDIA: Jensen Huang guida 36 manager, 36.000 dipendenti e legge 20.000 email al giorno

Il CEO di NVIDIA, Jen-Hsun Huang, oggi supervisiona direttamente 36 collaboratori suddivisi in sette aree chiave: strategia, hardware, software, intelligenza artificiale, pubbliche relazioni, networking e assistenti esecutivi. Un cambiamento notevole rispetto ai 55 diretti riportati nel marzo 2024. Nove dirigenti operano nel settore hardware, sette nell’intelligenza artificiale e tecnologie avanzate, e tre nelle pubbliche relazioni. Tra i principali nomi figurano Jonah Alben (Senior Vice President of GPU Engineering), Dwight Diercks (Executive Vice President of Software), Bill Dally (Chief Scientist) e Xinzhou Wu (Vice President Automotive). Nel frattempo, il numero totale dei dipendenti NVIDIA è cresciuto del 21,6% in un solo anno, toccando

La Corea del Sud diventa un hub globale per l’intelligenza artificiale

Il vertice APEC di Gyeongju, conclusosi il 1° gennaio, ha sancito un importante passo avanti per la Corea del Sud nel settore dell’intelligenza artificiale. Grandi aziende tecnologiche internazionali hanno infatti confermato ingenti investimenti nella costruzione di data center dedicati all’IA e in altre infrastrutture strategiche. Questi centri di calcolo, dotati di decine o centinaia di migliaia di GPU, sono fondamentali per l’addestramento e l’elaborazione dei modelli di intelligenza artificiale di nuova generazione. Fino a poco tempo fa, la Corea non era riuscita ad attrarre progetti di questo tipo a causa della scarsità di GPU e della mancanza di terreni adeguati. La situazione

Nanochat: crea il tuo LLM, addestralo e rendilo funzionante sul tuo PC con 100 dollari

Lo sviluppatore Andrej Karpathy ha presentato nanochat, una versione minimalista e completamente open source di ChatGPT che può essere addestrata ed eseguita su un solo computer. Progettato come piattaforma di apprendimento per il corso LLM101n di Eureka Labs, il progetto consente agli utenti di costruire il proprio modello linguistico “da zero all’interfaccia web” senza dipendenze ingombranti o infrastrutture complesse. L’obiettivo di nanochat è dimostrare che un analogo base di ChatGPT può essere costruito in poche ore e per circa cento dollari. Lo script speedrun.sh esegue automaticamente tutti i passaggi, dalla tokenizzazione e dall’addestramento all’inferenza e al lancio di un’interfaccia web che può

Fujitsu svela Post-K: il supercomputer ARM che sarà 100 volte più veloce di “K”

Dopo aver firmato la realizzazione del supercomputer giapponese “K”, uno dei più potenti al mondo, Fujitsu ha annunciato un nuovo progetto di punta: Post-K, basato sull’architettura ARMv8 a 64 bit. La presentazione è avvenuta durante l’International Supercomputing Conference di Francoforte, in Germania, e il lancio ufficiale è previsto entro il 2020. Secondo le previsioni, Post-K sarà in grado di raggiungere prestazioni 100 volte superiori rispetto al suo predecessore, aprendo la strada a un livello di calcolo che potrebbe superare i 1.000 petaflop (PFLOPS). Al momento, il supercomputer “K” – noto anche come “King” – si colloca al quinto posto nella classifica mondiale

Microsoft lancia la “fabbrica AI”: il supercomputer più potente mai costruito

Microsoft ha presentato una nuova generazione di data center progettati specificamente per l’intelligenza artificiale. La struttura principale si chiama Microsoft Fairwater e si trova nel Wisconsin, la struttura più grande e tecnologicamente avanzata dell’azienda, che Microsoft definisce la sua “fabbrica di intelligenza artificiale“. Si tratta del primo di una serie di data center simili che l’azienda sta costruendo negli Stati Uniti e all’estero. Fairwater occupa 315 acri a Mount Pleasant, New York. Il sito comprende tre edifici, per un totale di circa 1,2 milioni di piedi quadrati. Il complesso ha richiesto 46,6 miglia di pali di fondazione, 26,5 milioni di libbre di

L’isolamento dei container è a rischio. Solo 3 righe di codice per violare gli ambienti AI di NVIDIA

L’azienda di sicurezza cloud Wiz ha identificato una vulnerabilità critica in NVIDIA Container Toolkit, identificata come CVE-2025-23266 e con un punteggio CVSS di 9.0. La vulnerabilità, denominata NVIDIAScape, potrebbe rappresentare una seria minaccia per i servizi cloud che utilizzano l’intelligenza artificiale e la containerizzazione basata su GPU. Il bug riguarda tutte le versioni di NVIDIA Container Toolkit fino alla 1.17.7 inclusa, nonché NVIDIA GPU Operator fino alla versione 25.3.0. La vulnerabilità è già stata risolta rispettivamente nelle nuove versioni 1.17.8 e 25.3.1. Il problema è legato all’utilizzo dei cosiddetti hook OCI, progettati per inizializzare i container. Uno di questi hook, “createContainer“, viene utilizzato con una configurazione errata, che

Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio

Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché. 70 miliardi di parametri: cosa significa davvero Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2

GPUHammer: Attacchi hardware sulle GPU NVIDIA portano alla compromissione dei modelli di AI

NVIDIA ha segnalato una nuova vulnerabilità nei suoi processori grafici, denominata GPUHammer. Questo attacco, basato sulla nota tecnica RowHammer, consente agli aggressori di corrompere i dati di altri utenti sfruttando le peculiarità della RAM delle schede video. Per la prima volta, è stata dimostrata la possibilità di implementare un attacco RowHammer su una GPU, anziché su processori tradizionali. Ad esempio, gli specialisti hanno utilizzato la scheda video NVIDIA A6000 con memoria GDDR6, riuscendo a modificare singoli bit nella memoria video. Questo può portare alla distruzione dell’integrità dei dati senza accesso diretto. Di particolare preoccupazione è il fatto che anche un singolo bit

Nvidia sfida le restrizioni USA: in arrivo il chip AI H20 ridotto per la Cina

Quando tecnologia e geopolitica si intersecano, il vincitore non è chi ha il chip più potente, ma chi riesce a riscrivere le regole in tempo e ad adattarsi più velocemente degli altri. Nei prossimi due mesi Nvidia lancerà in Cina una versione ridotta del suo chip AI H20. Secondo quanto riferito da alcune fonti a Reuters, si prevede che il modello modificato sarà disponibile già a partire da luglio; i principali clienti cinesi, tra cui i fornitori di cloud computing, sono già stati avvisati. La versione rivisitata di H20 rappresenta il tentativo di Nvidia di mantenere la propria posizione in una delle regioni più

Jensen Huang: L’AGI sta arrivando! Scopriamo le nuove frontiere di Nvidia

Recentemente, Jensen Huang, CEO di Nvidia, è stato ospite del talk show Bg2 Pod, dove ha discusso vari argomenti legati all’intelligenza artificiale (IA), con un focus particolare sull’evoluzione verso l’intelligenza artificiale generale (AGI). Durante la conversazione con i conduttori Brad Gerstner e Clark Tang, Huang ha evidenziato la rapida evoluzione della tecnologia IA e il potenziale degli assistenti AGI, che si prevede diventeranno sempre più sofisticati nel tempo. Huang ha messo in risalto la leadership di Nvidia nel campo dell’informatica, sottolineando i vantaggi competitivi ottenuti attraverso la riduzione dei costi di elaborazione e l’innovazione dell’architettura hardware. Ha descritto il “fossato” di Nvidia

Categorie