Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Banner Ransomfeed 970x120 1
Crowdstrike 320×100
Cosa sono i Large Language Models? Dietro le Quinte dell’Intelligenza Artificiale

Cosa sono i Large Language Models? Dietro le Quinte dell’Intelligenza Artificiale

14 Agosto 2023 08:44

Nel mondo in rapida evoluzione dell’intelligenza artificiale (IA), un termine è emerso con un’importanza crescente: Modello linguistico o Language Model, in particolare modelli linguistici di grandi dimensioni quindi chiamati Large Language Models.

Probabilmente avrete già usato tool come chatGPT, cioè modelli di Deep Learning che generano testo coerente e simile a quello umano, in tal caso avete già sperimentato le capacità dei Large Language Models. In questo articolo approfondiremo cosa sono i modelli linguistici, come funzionano ed esploreremo alcuni esempi importanti nella letteratura scientifica.

Modelli Linguistici

In sintesi, un modello linguistico è un software in grado di prevedere la probabilità di una sequenza di parole. I modelli linguistici vengono addestrati su vasti archivi di dati testuali (corpus) affinchè possano apprendere pattern linguistici.


Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Immaginate di leggere una frase: “Il gatto è sul __“.

La maggior parte degli esseri umani, in base alla loro comprensione dell’italiano, penserebbe che la parola successiva potrebbe essere “tavolo”, “pavimento”, “divano” o qualcosa di simile. Questa previsione si basa sulle nostre conoscenze ed esperienze precedenti con la lingua. Un modello linguistico mira a fare qualcosa di simile, ma su una scala molto più ampia e con una vasta quantità di testo.

I modelli linguistici assegnano probabilità alle sequenze di parole. Un modello ben addestrato assegnerebbe una probabilità maggiore alla sequenza “Il gatto è sul divano” rispetto a “Il gatto è sul cielo”, poiché quest’ultima è meno comune in un tipico testo italiano.

Evoluzione dei Modelli Linguistici

I modelli linguistici esistono da anni, ma le loro capacità sono state notevolmente migliorate con l’avvento del Deep Learning e delle reti neurali. Questi modelli sono cresciuti in dimensioni, catturando più sfumature e complessità del linguaggio umano. Vediamo alcuni esempi tra i più famosi di modelli che sono stati utilizzati per processare il lunguaggio naturale.

  • Modelli n-gram: Basati su statistica tradizionale in cui N si riferisce a un parametro numerico che viene scelto dal data scientist . Un modello n-gram predice la parola successiva sulla base delle n-1 parole precedenti. Genera quindi le probabilità contando la frequenza delle sequenze di parole che ha incontrato nei dati testuali di training.
  • Reti neurali ricorrenti (RNN): Introdotte per superare le limitazioni dei modelli a n-gram, le RNN possono teoricamente considerare tutte le parole precedenti in un testo. Tuttavia, nella pratica, hanno difficoltà a gestire le dipendenze a lungo termine, cioè a capire se una parola come un aggettivo fà riferimento ad un altra parola che sta parecchio lontana nel testo.
  • Transformers: Questa architettura ha rivoluzionato il mondo del processamento del linguaggio naturale (NLP) del Deep Learning in generale. Modelli come BERT (Bidirectional Encoder Representations from Transformers) e GPT (Generative Pre-trained Transformer) rientrano in questa categoria. Sono in grado di comprendere il contesto del testo e a capire come le parole queste dipendano l’una dall’altra. Inoltre sono modelli molto più veloci da addestrare rispetto alle RNN poichè il training può essere lanciato in modo parallelo. Andando più nel dettaglio, un modello Transformer è formato da due parti, un encoder (a sinistra) , che genera una rappresentazione matematica del linguaggio, e un decoder (a destra), che genera nuove parole dato un input, come fà appunto chatGPT. BERT è un modello sviluppato utilizzando solo la parte encoder del transformer, ottimo quindi per creare rappresentazioni vettoriali, mentre GPT è basato sulla parte decoder specializzato nella generazione del testo.

Modelli Titanici

Quando diciamo “grandi” in “modelli linguistici di grandi dimensioni”, ci riferiamo all’enorme numero di parametri che questi modelli hanno, spesso dell’ordine di miliardi. Infatti ad oggi sembra che le performance dei modelli crescano all’aumentera del numero dei parametri, per questo i modelli che vengono commercializzati sono sempre più grandi.

Ovviamente bisogna sempre tenere a mente che modelli di tali dimension hanno un costo economico proibitivo per la maggiorparte dei business, le stime per l’addestramento di tali modelli si aggira sui milioni di euro. Di solito chi non ha queste possibilità economiche si limita a fare un fine-tuning di modelli già addestrati, cioè di continuare l’addestramento di un modello come BERT ma sui propri dati in modo che il modello diventi ancora più bravo su un determinato settore.

Ovviamente questi training hanno degli impatti anche ambientali non indifferenti, per questo si sta facendo anche molta ricerca su come ottimizzare e ridurre la dimensione dei modelli mantenendo comuqnue la loro efficacia. Citiamo alcuni degli ultimi Large Language Models di grandi dimensioni:

  • BERT di Google: Con 340 milioni di parametri, è stato progettato per comprendere il contesto delle parole nelle query di ricerca, BERT è in grado di considerare l’intero contesto di una parola osservando le parole che la precedono e la seguono.
  • Turing-NLG di Microsoft: Con 17 miliardi di parametri, questo modello è progettato per varie attività di elaborazione del linguaggio naturale, tra cui la risposta a domande e la traduzione linguistica.
  • GPT-3 di OpenAI: con 175 miliardi di parametri, GPT-3 è uno dei modelli linguistici più avanzati. Può generare paragrafi di testo coerenti, rispondere a domande, scrivere poesie e persino generare codice informatico.


I Large Language Models stanno superando ogni aspettativa nel campo dell’elaborazione del linguaggio naturale. Con la loro continua crescita ed evoluzione, le loro potenziali applicazioni in settori come la sanità, la finanza, l’istruzione e l’intrattenimento sono illimitate.

Che si tratti di assistere gli scrittori nella creazione di contenuti, di alimentare chatbot avanzati o di aiutare i ricercatori nella revisione della letteratura, questi modelli hanno aperto la strada a un futuro in cui gli esseri umani e le macchine comunicano senza soluzione di continuità.

Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Immagine del sito
Marcello Politi

Esperto di intelligenza artificiale con una grande passione per l'esplorazione spaziale. Ho avuto la fortuna di lavorare presso l'Agenzia Spaziale Europea, contribuendo a progetti di ottimizzazione del flusso di dati e di architettura del software. Attualmente, sono AI Scientist & Coach presso la PiSchool, dove mi dedico alla prototipazione rapida di prodotti basati sull'intelligenza artificiale. Mi piace scrivere articoli riguardo la data science e recentemente sono stato riconosciuto come uno dei blogger più prolifici su Towards Data Science.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Attacco DDoS contro La Poste francese: NoName057(16) rivendica l’operazione
Redazione RHC - 23/12/2025

Secondo quanto appreso da fonti interne di RedHotCyber, l’offensiva digitale che sta creando problemi al Sistema Postale Nazionale in Francia è stata ufficialmente rivendicata dal collettivo hacker filo-russo NoName057(16). Gli analisti confermano che l’azione rientra…

Immagine del sito
HackerHood di RHC scopre una privilege escalation in FortiClient VPN
Manuel Roccon - 23/12/2025

L’analisi che segue esamina il vettore di attacco relativo alla CVE-2025-47761, una vulnerabilità individuata nel driver kernel Fortips_74.sys utilizzato da FortiClient VPN per Windows. Il cuore della problematica risiede in una IOCTL mal gestita che…

Immagine del sito
MongoDB colpito da una falla critica: dati esfiltrabili senza autenticazione
Redazione RHC - 23/12/2025

Una vulnerabilità critica è stata individuata in MongoDB, tra le piattaforme di database NoSQL più utilizzate a livello globale. Questa falla di sicurezza, monitorata con il codice CVE-2025-14847, permette agli aggressori di estrarre dati sensibili…

Immagine del sito
Smart TV sotto accusa: “Vi guardano mentre guardate”. La Privacy è a rischio!
Redazione RHC - 23/12/2025

Il procuratore generale del Texas Ken Paxton ha accusato cinque importanti produttori di televisori di aver raccolto illegalmente dati degli utenti utilizzando la tecnologia di riconoscimento automatico dei contenuti (ACR) per registrare ciò che i…

Immagine del sito
Apple: multa di 115 milioni di dollari dal Garante della Concorrenza e del Mercato italiano
Redazione RHC - 22/12/2025

L’Autorità Garante della Concorrenza e del Mercato italiana (AGCM) ha imposto una sanzione significativa ad Apple. La sanzione ammonta a 98,6 milioni di euro, ovvero circa 115 milioni di dollari. ed è relativa a al…