Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
LECS 970x120 1
LECS 320x100 1
Consumo Energetico e Limiti di Risorse: Il Futuro dell’IA quanto è incerto?

Consumo Energetico e Limiti di Risorse: Il Futuro dell’IA quanto è incerto?

4 Settembre 2024 16:07

I ricercatori dell’organizzazione no-profit Epoch AI hanno analizzato una analisi dove parlano delle prospettive di sviluppo dell’intelligenza artificiale fino al 2030. Hanno esaminato quattro fattori chiave che potrebbero limitare i progressi in quest’area: consumo energetico, disponibilità dei chip, volume dei dati di addestramento e latenza di elaborazione.

Secondo il rapporto, la potenza di calcolo utilizzata per addestrare i modelli di intelligenza artificiale quadruplica ogni anno. Se questa tendenza continuerà fino alla fine del decennio, entro il 2030, la formazione sull’intelligenza artificiale utilizzerà 10.000 volte più risorse rispetto agli algoritmi più avanzati di oggi, come GPT-4 di OpenAI.

Gli esperti sottolineano che i moderni sistemi di intelligenza artificiale consumano già quantità significative di energia. Ad esempio, l’addestramento dell’ultimo modello di Meta ha richiesto il consumo energetico costante paragonabile a 23.000 famiglie statunitensi. Ed entro il 2030, anche con miglioramenti in termini di efficienza, l’addestramento di un modello di IA avanzato potrebbe richiedere una potenza 200 volte maggiore. Questo rappresenta già il 30% del consumo energetico di tutti i moderni data center.


Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Per superare le limitazioni, le aziende possono distribuire il processo di formazione su più data center. Questo approccio è già utilizzato da Google durante l’addestramento del modello Gemini Ultra. Tuttavia, richiede connessioni in fibra ultraveloci e con larghezza di banda elevata. In termini di chip, i ricercatori prevedono che entro il 2030 saranno disponibili tra i 20 e i 400 milioni di processori dedicati per eseguire l’intelligenza artificiale. Ciò potrebbe essere sufficiente per creare un modello che utilizza 50.000 volte più risorse di elaborazione rispetto a GPT-4.

Anche la quantità di dati di qualità per addestrare gli algoritmi è motivo di preoccupazione. Alcuni esperti prevedono che la disponibilità di dati testuali di alta qualità disponibili al pubblico potrebbe esaurirsi già nel 2026. Tuttavia, Epoch AI ritiene che ciò non limiterà la crescita dei modelli almeno fino al 2030.

Naturalmente le moderne reti neurali non vengono addestrate solo sui testi, ma anche su immagini, audio e video. Ciò amplia notevolmente la portata dei materiali disponibili. Inoltre, le aziende stanno sperimentando l’uso di dati sintetici. Tenendo conto di tutte le fonti, inclusi testo, contenuti multimediali e set di dati sintetici, Epoch AI stima che entro il 2030 avremo informazioni sufficienti per addestrare modelli utilizzando risorse di elaborazione 80.000 volte superiori rispetto a GPT-4.

Dopo aver confrontato tutti i fattori limitanti, gli esperti di Epoch AI sono giunti alla conclusione che è tecnicamente possibile creare modelli di intelligenza artificiale che utilizzano 10.000 volte più risorse di calcolo rispetto ai sistemi moderni. Il limite principale in questo caso sarà il consumo energetico.

Tuttavia, realizzare una crescita così massiccia richiederà ingenti investimenti. Il CEO di Anthropic, Dario Amodei, stima che il costo della formazione di un singolo modello potrebbe aumentare da 1 miliardo di dollari oggi a 10 miliardi di dollari l’anno prossimo e raggiungere i 100 miliardi di dollari negli anni successivi.

La volontà delle aziende di investire tali importi dipenderà dai vantaggi pratici dei sistemi di intelligenza artificiale. Se la scalabilità continua a portare miglioramenti significativi e nuove funzionalità, l’investimento potrebbe valerne la pena. Epoch AI stima che se l’IA riuscisse ad automatizzare una parte significativa delle attività economiche, il ritorno finanziario potrebbe essere di trilioni di dollari.

Tuttavia, alcuni critici ritengono che i modelli linguistici e multimodali di grandi dimensioni potrebbero rappresentare un costoso vicolo cieco nello sviluppo tecnologico.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoCybercrime
Basta un riavvio: il trucco che spegne Windows Defender prima ancora che parta
Redazione RHC - 13/01/2026

A volte, per disattivare la protezione di Windows non è necessario attaccare direttamente l’antivirus. È sufficiente impedirne il corretto avvio. Un ricercatore che si fa chiamare Two Seven One Three (TwoSevenOneT) ha pubblicato su GitHub…

Immagine del sitoCultura
La mente dietro le password: Errore umano? No, un legame che non c’è. Puntata 4
Simone D'Agostino - 13/01/2026

Quando la sicurezza fallisce prima ancora dell’errore Questo testo nasce dall’esperienza diretta, maturata osservando nel tempo numerosi casi di frodi e incidenti informatici, in cui il fattore umano nella sicurezza è stato l’elemento che ha…

Immagine del sitoCultura
Burnout: un allarme di sistema nell’IT e nella Cyber Security aziendale
Paloma Donadi - 13/01/2026

Nel mondo della cybersecurity si parla spesso di attacchi, vulnerabilità, incidenti. Si parla meno di una variabile silenziosa che attraversa tutto il settore: la fatica. Non la stanchezza di fine giornata, ma una fatica più…

Immagine del sitoCyberpolitica
Quando il segnale muore, il potere vince: il blackout digitale dell’Iran
Roberto Villani - 13/01/2026

A volte le cose importanti non arrivano in conferenza stampa. Arrivano come un grafico che smette di respirare: la linea della connettività che crolla, l’OSINT che si inaridisce, il rumore che cresce perché il segnale…

Immagine del sitoVulnerabilità
Vulnerabilità critica in ServiceNow: i rischi sono lo spoofing dell’identità
Redazione RHC - 13/01/2026

Una falla critica è stata individuata nella piattaforma di intelligenza artificiale di ServiceNow, con un punteggio di gravità pari a 9,3 su 10. Questa vulnerabilità, catalogata come CVE-2025-12420, potrebbe permettere a malintenzionati di impersonare utenti…