Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

I chatbot necessitano 5 volte le capacità di calcolo degli attuali motori di ricerca

Redazione RHC : 16 Febbraio 2023 10:00

Lavorare insieme tra motori di ricerca e modelli di linguaggio di grandi dimensioni potrebbe richiedere un aumento di cinque volte della potenza di calcolo e aumentare le emissioni di carbonio, secondo Insider e Wired .

Insidercitando il co-fondatore di QScale Martin Bouchard, ha scritto che la ricerca generativa basata sull’intelligenza artificiale richiede almeno 4-5 volte più potenza di elaborazione rispetto alla ricerca standard. Secondo lui, l’infrastruttura del data center esistente non è sufficiente per soddisfare la domanda di tecnologia.

Secondo UBS, ChatGPT ha ora circa 13 milioni di utenti giornalieri, mentre Microsoft Bing gestisce mezzo miliardo di ricerche al giorno e Google ne gestisce 8,5 miliardi.

Wired ha citato Alan Woodward, professore di sicurezza informatica presso l’Università del Surrey (Regno Unito), il quale ha affermato che enormi risorse sono coinvolte nell’indicizzazione e nella ricerca di contenuti Internet, ma l’integrazione dell’IA richiede capacità completamente diverse.

Sebbene né OpenAI né Google abbiano ancora rivelato il costo del calcolo necessario per sviluppare i loro prodotti, gli esperti ritengono che per formare GPT-3 siano state necessari circa 1.287 MWh e abbia provocato oltre 550 tonnellate di emissioni di anidride carbonica

L’edizione Insider ha fornito il suo esempio di confronto : un’auto media emette 4,6 tonnellate di anidride carbonica in un anno. Pertanto per il solo addestramento di ChatGPT è stato inquinato come 110 macchine accese per un anno intero.

Vale la pena notare che le aziende stanno già pensando di ridurre i costi energetici. Ad esempio, Google ha recentemente annunciato che lancerà una versione più leggera di Bard che richiederà meno potenza di calcolo. 

La portavoce aziendale Jane Park ha affermato che la combinazione di modelli, processori e data center efficienti con fonti di energia pulita può ridurre di 1.000 volte l’impronta di carbonio di un sistema di apprendimento automatico.

Insider ritiene che sia stata la volontà di alleggerire il carico computazionale di Bard e l’utilizzo di una versione light della rete neurale LaMDA a portare all’incidente di interpretazione che ha provocato un ribasso delle azioni della società e una successiva riduzione della capitalizzazione di quasi 100 miliardi di dollari.

Secondo i giornalisti, al fine di ridurre i costi computazionali ed energetici dell’IA, le aziende rilasceranno versioni “ridotte” dei prodotti per ridurre i costi. Ciò significa che la tecnologia non soddisferà più le aspettative, il che minerà la fiducia dei consumatori.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.