Redazione RHC : 14 Agosto 2025 09:16
Huawei ha presentato un nuovo strumento software che velocizza i modelli di intelligenza artificiale di grandi dimensioni distribuendo i dati in modo più efficiente tra diversi tipi di memoria. Potrebbe aiutare la Cina a ridurre la sua dipendenza dai costosi chip di memoria ad alta larghezza di banda, ora quasi interamente controllati da fornitori stranieri.
Lo sviluppo si chiama Unified Cache Manager (UCM). Si tratta di un algoritmo che posiziona i dati tenendo conto della latenza di diversi livelli di memoria, dall’HBM ad alta velocità alla RAM standard e all’SSD. Secondo Zhou Yuefeng, vicepresidente di Huawei per i sistemi di storage, la tecnologia ha ridotto la latenza di inferenza del 90% e aumentato la produttività del sistema di 22 volte. Questi risultati sono stati ottenuti durante i test di cui l’azienda ha parlato al forum sulle applicazioni industriali dell’intelligenza artificiale a Shanghai.
Con un accesso limitato all’hardware moderno, le aziende cinesi stanno ricorrendo sempre più a soluzioni software alternative. L’approccio di Huawei è in gran parte simile a quanto dimostrato in precedenza dalla startup DeepSeek : ha addestrato modelli di intelligenza artificiale su larga scala con risorse di calcolo limitate, ottenendo risultati competitivi.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Huawei ha promesso di rendere open source l’UCM già a settembre, prima alla sua comunità di sviluppatori online e poi all’intero settore. L’iniziativa mira a ridurre la dipendenza della Cina dai chip stranieri, in particolare quelli di SK Hynix, Samsung e Micron, che attualmente dominano il mercato HBM.
La tecnologia HBM è una memoria multistrato con elevata larghezza di banda e bassa latenza, fondamentale per i moderni chip di intelligenza artificiale. Secondo la società di consulenza Yole Group, il mercato globale HBM raggiungerà i 34 miliardi di dollari nel 2025 e potrebbe crescere fino a 98 miliardi di dollari entro il 2030. La rapida crescita è spiegata dal boom nel campo dell’intelligenza artificiale generativa.
Dallo scorso anno, gli Stati Uniti hanno limitato le esportazioni di chip HBM avanzati verso la Cina nel tentativo di rallentare lo sviluppo dell’industria dei semiconduttori del Paese. Questa decisione rientra in una strategia più ampia perseguita dall’amministrazione Biden. In risposta, Pechino ha accelerato la sua spinta verso l’indipendenza tecnologica e ha iniziato a sviluppare attivamente la propria produzione di memorie. Tra i principali attori figurano Yangtze Memory, Changxin Memory e Tongfu Microelectronics.
Tuttavia, i produttori cinesi faticano ancora a tenere il passo con i concorrenti stranieri. Mentre il Paese sta ancora predisponendo l’infrastruttura per la produzione della seconda generazione di HBM (HBM2), SK Hynix sta già commercializzando l’HBM4, un chip con velocità ancora più elevate.
Anche le restrizioni all’esportazione delle apparecchiature necessarie per la produzione di microcircuiti moderni continuano a rappresentare un ostacolo significativo, ostacolando seriamente lo sviluppo della microelettronica cinese.
In questo contesto, il destino dell’H20, un chip AI di Nvidia semplificato progettato specificamente per il mercato cinese, è diventato cruciale. Secondo il Financial Times, Pechino si è offerta di allentare le barriere all’esportazione per l’HBM nell’ambito di un potenziale accordo commerciale con gli Stati Uniti, ma non ci sono segnali di riavvicinamento tra le due parti.
Nonostante le sanzioni, Huawei rimane un attore chiave nel mercato cinese dei chip per l’intelligenza artificiale grazie alla sua linea Ascend. All’inizio di quest’anno, l’azienda ha presentato CloudMatrix 384, un sistema di elaborazione “supernodo” in grado di competere con i sistemi GB200 NVL72 di Nvidia.
All’inizio di agosto, Huawei ha anche annunciato l’intenzione di rendere open source il suo framework CANN (Compute Architecture for Neural Networks), incentrato sui processori Ascend. Questa rappresenta una sfida diretta all’ecosistema CUDA di Nvidia , che da tempo rappresenta lo standard de facto per l’addestramento e l’esecuzione di modelli di intelligenza artificiale.
Gli analisti di Binarly hanno trovato almeno 35 immagini su Docker Hub ancora infette da una backdoor che ha penetrato xz Utils l’anno scorso. I ricercatori hanno avvertito che questo potrebbe ...
Tre gravi vulnerabilità di Microsoft Office, che potrebbero permettere agli aggressori di eseguire codice remoto sui sistemi colpiti, sono state risolte da Microsoft con il rilascio di aggiorname...
Dalle macchine che apprendono a quelle che si auto migliorano: il salto evolutivo che sta riscrivendo il codice del futuro Mentre leggete questo articolo, molto probabilmente, in un data center del mo...
Trend Micro ha rilevato un attacco mirato ai settori governativo e aeronautico in Medio Oriente, utilizzando un nuovo ransomware chiamato Charon. Gli aggressori hanno utilizzato una complessa catena d...
Diversi prodotti di sicurezza Fortinet, tra cui FortiOS, FortiProxy e FortiPAM, sono interessati da una vulnerabilità di evasione dell’autenticazione di alta gravità. La falla, monito...