Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x20 Itcentric
320x100 Itcentric

Tag: distillazione

DeepSeek R1-0528: il clone cinese segreto di Google Gemini?

La scorsa settimana, il laboratorio cinese DeepSeek ha presentato una nuova versione del suo modello di intelligenza artificiale R1, denominato R1-0528. Il sistema aggiornato ha ottenuto risultati impressionanti nei test matematici e software, ma ha immediatamente suscitato un’ondata di diffidenza tra gli esperti. Il motivo è la somiglianza con i risultati tipici dell’intelligenza artificiale della linea Gemini di Google. Le fonti dei dati utilizzati per addestrare R1-0528 non sono state divulgate ufficialmente, ma alcuni indizi hanno portato i ricercatori a credere che il modello possa essere stato parzialmente addestrato sull’output di Gemini 2.5 Pro, secondo Sam Pack, uno sviluppatore che testa l’”intelligenza emotiva” dell’IA.

Cos’è La Distillazione nei Modelli Linguistici di Grandi Dimensioni (LLM)

“Non ci vuole un pennello grande ma un grande pennello!”, chi non si ricorda questa pubblicità storica? Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) come GPT hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale. Tuttavia, la loro enorme complessità e il consumo di risorse computazionali rappresentano un collo di bottiglia significativo per il loro utilizzo. Per affrontare questo problema, i ricercatori hanno adattato una tecnica applicata precedentemente nelle reti neurali profonde, non limitata al caso degli LLM, chiamata distillazione del modello. Tale tecnica permette di utilizzare modelli di dimensioni più ridotte a partire da modelli più grandi,

DeepSeek ha copiato OpenAI? Il sospetto sulla ‘distillazione’ dell’AI

OpenAI ha affermato di aver trovato prove del fatto che la startup cinese DeepSeek stava utilizzando i suoi modelli proprietari per addestrare il proprio concorrente open source. Ciò solleva preoccupazioni circa la possibile violazione della proprietà intellettuale. Secondo il Financial Times, OpenAI sospetta che DeepSeek abbia utilizzato una tecnica chiamata “distillazione”, un processo in cui vengono utilizzati modelli più potenti per migliorare l’efficienza delle controparti più piccole. Sebbene questo metodo sia comune nel settore, OpenAI ritiene che l‘azienda cinese abbia violato i termini della propria piattaforma creando la propria IA competitiva. “Il problema inizia quando si utilizza il modello non solo per

Categorie