Con il rallentamento della legge di Moore e l’aumento del consumo energetico dei data center, AMD si pone l’ambizioso obiettivo di aumentare l’efficienza energetica dei suoi chip di 20 volte entro il 2030. Un passo fondamentale in questa direzione sarà la transizione all’architettura rack-scale, ovvero la progettazione di sistemi di elaborazione su scala di rack di server, anziché di singoli chip.
Sam Naffziger, Senior Vice President di AMD, osserva che più grande è il dispositivo, maggiore è la sua efficienza. Questa logica è già implementata nell’architettura chiplet, che ha permesso ad AMD di superare i limiti e raggiungere elevate prestazioni per watt di potenza. Il culmine è stata la serie MI300: assemblaggi 3D densi che integrano elaborazione, I/O e interconnessioni in un unico package.
Il passo successivo sarà MI400, la prima piattaforma rack-scale completa di AMD. Utilizzerà la propria interfaccia di accelerazione UALink e competerà con le soluzioni Nvidia che scalano le GPU fino a centinaia di istanze per rack. In futuro, AMD potrebbe passare dalle connessioni in rame a quelle fotoniche, che promettono una maggiore larghezza di banda, ma sono attualmente limitate dalle difficoltà tecniche e dal consumo energetico dei laser.
L’efficienza energetica non riguarda solo l’hardware, tuttavia. AMD punta su una stretta integrazione tra hardware e software. L’azienda sta attivamente sviluppando la sua piattaforma ROCm, ottimizzandola per i framework più diffusi, da PyTorch a vLLM. Le acquisizioni di Nod.ai, Mipsology e Brium hanno rafforzato lo sviluppo software e Sharon Zhou della startup Lamini si è recentemente unita al team.
AMD sta inoltre implementando il supporto per i formati di dati di piccole dimensioni FP8 e FP4, che consentono di ridurre il consumo energetico senza compromettere la qualità dell’output. Ma questo richiederà tempo: il supporto per FP8 in vLLM è stato implementato quasi un anno dopo il rilascio di MI300X.
Per monitorare i progressi della sua iniziativa 20×30, AMD utilizzerà un indice personalizzato che tiene conto delle prestazioni della GPU, della larghezza di banda della memoria HBM e della rete, con pesi diversi per le attività di training e inferenza.
L’attenzione rivolta alle nuove tecnologie di packaging, alle architetture rack-scale e agli sviluppi software riflette la strategia di AMD volta a ridurre il consumo energetico di fronte alla rapida crescita dei carichi di lavoro di intelligenza artificiale.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…