Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Google vs Nvidia nell’hardware AI. Presentate le nuove TPU v4 che hanno addestrato Midjourney

Redazione RHC : 7 Aprile 2023 11:12

il 5 aprile scorso, Google ha rilasciato i dettagli su uno dei suoi nuovi supercomputer AI. La società afferma che lo sviluppo supera i sistemi Nvidia concorrenti in termini di velocità ed efficienza.

Mentre Nvidia domina il mercato dell’implementazione di modelli di intelligenza artificiale (oltre il 90% del mercato), Google si è concentrata sullo sviluppo di propri chip ad alte prestazioni dal 2016, chiamati Tensor Processing Units (TPU).

Tuttavia, negli ultimi dieci anni, Google ha fatto molto per lo sviluppo dell’intelligenza artificiale. I dipendenti della società americana hanno sviluppato molte tecnologie chiave che sono attualmente utilizzate ovunque. 

Tuttavia, in termini di commercializzazione dei suoi sviluppi, secondo molti, l’azienda è notevolmente indietro rispetto ai suoi concorrenti.

Negli ultimi anni si è creata un’atmosfera sfavorevole all’interno dell’azienda, costringendo sviluppatori e ingegneri a presentare un prodotto che dimostrerebbe immediatamente a tutti che Google non sta perdendo terreno e rimane una delle aziende leader nel campo delle tecnologie di intelligenza artificiale.

I modelli e i prodotti AI come Bard di Google o ChatGPT di OpenAI, alimentati dai chip Nvidia A100, richiedono un gran numero di computer e migliaia di chip condivisi per addestrare ed eseguire modelli AI. Questi computer funzionano 24 ore su 24 per molte settimane o addirittura mesi per completare l’addestramento, il che impone sicuramente qualche inconveniente.

Martedì scorso, Google ha annunciato di aver creato un unico sistema con oltre 4.000 processori, progettato per funzionare in modo efficiente e per addestrare rapidamente modelli di intelligenza artificiale. Il supercomputer basato sulle TPU di Google, chiamato TPU v4, è “da 1,2 a 1,7 volte più veloce e consuma da 1,3 a 1,9 volte meno energia rispetto a Nvidia A100.

“Prestazioni, scalabilità e convenienza rendono i supercomputer TPU v4 cavalli di battaglia da utilizzare in combinazione con modelli di linguaggio di grandi dimensioni”, scrivono i ricercatori di Google.

Tuttavia, i punteggi dei test dei nuovi chip di Google non sono stati confrontati con l’ultimo chip H100 di Nvidia. È più moderno e, molto probabilmente, aggirerà i chip di Google su tutti i fronti. 

Secondo Nvidia, l’H100 offre almeno 4 volte le prestazioni della generazione precedente. Tuttavia, mentre Nvidia finora ha appena mostrato il nuovo chip, Google ha già presentato un supercomputer già pronto con la sua tecnologia. Per il momento Google è avanti, ma la situazione potrebbe cambiare radicalmente se Nvidia presenterà il proprio supercomputer nel prossimo futuro.

La notevole quantità di potenza di calcolo richiesta per l’intelligenza artificiale non è affatto economica, motivo per cui molte aziende del settore, come Google e Nvidia, si stanno concentrando sullo sviluppo di nuovi chip, componenti, tecnologie software e persino i suddetti supercomputer per poter ridurre il costo delle tecnologie necessarie per l’apprendimento e il funzionamento dell’intelligenza artificiale e delle reti neurali.

Anche i requisiti di alimentazione per l’intelligenza artificiale sono ancora estremamente elevati, il che è una sorta di sbocco per fornitori di servizi cloud come Google, Microsoft e Amazon, che affittano la loro potenza di calcolo a ore e ci guadagneranno molto bene. Ad esempio, Google ha recentemente rivelato che l’ultima versione del famigerato generatore di immagini Midjourney AI è stata addestrata sui suoi chip TPU.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.