Redazione RHC : 7 Aprile 2023 11:12
il 5 aprile scorso, Google ha rilasciato i dettagli su uno dei suoi nuovi supercomputer AI. La società afferma che lo sviluppo supera i sistemi Nvidia concorrenti in termini di velocità ed efficienza.
Mentre Nvidia domina il mercato dell’implementazione di modelli di intelligenza artificiale (oltre il 90% del mercato), Google si è concentrata sullo sviluppo di propri chip ad alte prestazioni dal 2016, chiamati Tensor Processing Units (TPU).
Tuttavia, negli ultimi dieci anni, Google ha fatto molto per lo sviluppo dell’intelligenza artificiale. I dipendenti della società americana hanno sviluppato molte tecnologie chiave che sono attualmente utilizzate ovunque.
Sponsorizza la prossima Red Hot Cyber Conference!
Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico.
Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un paccheto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale.
Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.
Supporta RHC attraverso:
L'acquisto del fumetto sul Cybersecurity Awareness
Ascoltando i nostri Podcast
Seguendo RHC su WhatsApp
Seguendo RHC su Telegram
Scarica gratuitamente "Dark Mirror", il report sul ransomware di Dark Lab
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.
Tuttavia, in termini di commercializzazione dei suoi sviluppi, secondo molti, l’azienda è notevolmente indietro rispetto ai suoi concorrenti.
Negli ultimi anni si è creata un’atmosfera sfavorevole all’interno dell’azienda, costringendo sviluppatori e ingegneri a presentare un prodotto che dimostrerebbe immediatamente a tutti che Google non sta perdendo terreno e rimane una delle aziende leader nel campo delle tecnologie di intelligenza artificiale.
I modelli e i prodotti AI come Bard di Google o ChatGPT di OpenAI, alimentati dai chip Nvidia A100, richiedono un gran numero di computer e migliaia di chip condivisi per addestrare ed eseguire modelli AI. Questi computer funzionano 24 ore su 24 per molte settimane o addirittura mesi per completare l’addestramento, il che impone sicuramente qualche inconveniente.
Martedì scorso, Google ha annunciato di aver creato un unico sistema con oltre 4.000 processori, progettato per funzionare in modo efficiente e per addestrare rapidamente modelli di intelligenza artificiale. Il supercomputer basato sulle TPU di Google, chiamato TPU v4, è “da 1,2 a 1,7 volte più veloce e consuma da 1,3 a 1,9 volte meno energia rispetto a Nvidia A100.
“Prestazioni, scalabilità e convenienza rendono i supercomputer TPU v4 cavalli di battaglia da utilizzare in combinazione con modelli di linguaggio di grandi dimensioni”, scrivono i ricercatori di Google.
Tuttavia, i punteggi dei test dei nuovi chip di Google non sono stati confrontati con l’ultimo chip H100 di Nvidia. È più moderno e, molto probabilmente, aggirerà i chip di Google su tutti i fronti.
Secondo Nvidia, l’H100 offre almeno 4 volte le prestazioni della generazione precedente. Tuttavia, mentre Nvidia finora ha appena mostrato il nuovo chip, Google ha già presentato un supercomputer già pronto con la sua tecnologia. Per il momento Google è avanti, ma la situazione potrebbe cambiare radicalmente se Nvidia presenterà il proprio supercomputer nel prossimo futuro.
La notevole quantità di potenza di calcolo richiesta per l’intelligenza artificiale non è affatto economica, motivo per cui molte aziende del settore, come Google e Nvidia, si stanno concentrando sullo sviluppo di nuovi chip, componenti, tecnologie software e persino i suddetti supercomputer per poter ridurre il costo delle tecnologie necessarie per l’apprendimento e il funzionamento dell’intelligenza artificiale e delle reti neurali.
Anche i requisiti di alimentazione per l’intelligenza artificiale sono ancora estremamente elevati, il che è una sorta di sbocco per fornitori di servizi cloud come Google, Microsoft e Amazon, che affittano la loro potenza di calcolo a ore e ci guadagneranno molto bene. Ad esempio, Google ha recentemente rivelato che l’ultima versione del famigerato generatore di immagini Midjourney AI è stata addestrata sui suoi chip TPU.
Un nuovo strumento chiamato SpamGPT è apparso sui forum underground ed è rapidamente diventato oggetto di discussione nel campo della sicurezza informatica. Il software malevolo combina le capacità...
Nella giornata di oggi, la nuova cyber-gang “The Gentlemen” rivendica all’interno del proprio Data Leak Site (DLS) al laboratorio Santa Rita. Disclaimer: Questo rapporto include screenshot e/o t...
SAP ha reso disponibili degli aggiornamenti per la sicurezza Martedì, con l’obiettivo di risolvere varie vulnerabilità. Tra queste vulnerabilità, ve ne sono tre particolarmente critiche che si ve...
Ci stiamo avviando a passi da gigante vero l’uroboro, ovvero il serpente che mangia la sua stessa coda. Ne avevamo parlato qualche settimana fa che il traffico umano su internet è in calo vertigino...
A fine agosto, GreyNoise ha registrato un forte aumento dell’attività di scansione mirata ai dispositivi Cisco ASA. Gli esperti avvertono che tali ondate spesso precedono la scoperta di nuove vulne...