Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Fortinet 970x120px
320×100

Autore: Salvatore Ricciardi

Cos’è La Distillazione nei Modelli Linguistici di Grandi Dimensioni (LLM)

“Non ci vuole un pennello grande ma un grande pennello!”, chi non si ricorda questa pubblicità storica? Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) come GPT hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale. Tuttavia, la loro enorme complessità e il consumo di risorse computazionali rappresentano un collo di bottiglia significativo per il loro utilizzo. Per affrontare questo problema, i ricercatori hanno adattato una tecnica applicata precedentemente nelle reti neurali profonde, non limitata al caso degli LLM, chiamata distillazione del modello. Tale tecnica permette di utilizzare modelli di dimensioni più ridotte a partire da modelli più grandi,

Categorie