
L’azienda francese Mistral AI ha presentato la sua linea di modelli Mistral 3, rendendoli completamente open source con licenza Apache 2.0. La serie include diversi modelli compatti e densi con 3, 8 e 14 miliardi di parametri, oltre al modello di punta Mistral Large 3. Si tratta di un modello “Misture-of-Experts” con 41 miliardi di parametri attivi e 675 miliardi di parametri condivisi, che l’azienda definisce la sua soluzione più potente fino ad oggi.
Mistral Large 3 è stato addestrato da zero su circa 3.000 GPU NVIDIA H200. Dopo un ulteriore addestramento, il modello ha raggiunto il livello dei migliori modelli didattici open source nell’elaborazione di query comuni, ha supportato la comprensione delle immagini e ha dimostrato ottimi risultati in modalità multilingue, soprattutto per lingue diverse da inglese e cinese.
Nella classifica LMArena dei modelli open source non specificamente progettati per il ragionamento complesso, Mistral Large 3 ha debuttato al secondo posto ed è entrato nella top ten tra tutti i modelli OSS.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Gli sviluppatori hanno immediatamente rilasciato sia la versione base che quella didattica di Mistral Large 3. È stata promessa una versione separata incentrata sul ragionamento, che verrà rilasciata in seguito. Queste versioni aperte sono pensate per fungere da punto di partenza per la personalizzazione in base alle esigenze aziendali, anche lato client.
Per semplificare l’implementazione, Mistral collabora con NVIDIA, vLLM e Red Hat. Un benchmark per Mistral Large 3 è pubblicato in formato NVFP4, preparato utilizzando il progetto llm-compressor Questa versione può essere eseguita in modo efficiente su sistemi Blackwell NVL72, nonché su nodi con 8 GPU A100 o H100 tramite vLLM . NVIDIA ha aggiunto kernel attention e MoE ottimizzati per la nuova architettura, il supporto per split prefill e decoding e, in collaborazione con Mistral, ha implementato la decodifica speculativa. L’intera gamma Mistral 3 è supportata in TensorRT-LLM e SGLang consentendo le massime prestazioni con bassa profondità di bit e contesto lungo.
Per scenari edge e locali, Mistral produce la famiglia Ministral 3. Questi tre modelli supportano 3, 8 e 14 miliardi di parametri, ciascuno disponibile nelle versioni base, instructional e reasoning, tutti in grado di gestire immagini. Grazie al supporto multilingue e multiformato, vengono offerti come suite universale per una varietà di esigenze aziendali e di sviluppo: dai servizi online alle applicazioni eseguite localmente o su dispositivi embedded.
Particolare enfasi è posta sull’efficienza. Secondo Mistral, Ministral 3 dimostra il miglior rapporto costo-qualità tra i modelli open source della sua categoria. Le versioni didattiche eguagliano e superano le loro controparti in termini di accuratezza, mentre in scenari reali generano spesso un ordine di grandezza inferiore di token, riducendo latenza e costi.
Quando l’accuratezza è l’unico fattore importante, le varianti di ragionamento possono richiedere più tempo per calcolare e produrre una risposta più accurata. A titolo di esempio, citano Ministral 3 14B, che ha ottenuto un punteggio di circa l’85% nella sua categoria nel benchmark AIME 2025 Olympiad.
Tutti questi modelli sono progettati non solo per grandi data center, ma anche per sistemi edge. NVIDIA offre distribuzioni Ministral ottimizzate su workstation DGX Spark , PC e laptop dotati di RTX e piattaforme Jetson Orin . Ciò significa che lo stesso stack di modelli può essere utilizzato per applicazioni che vanno dalla robotica e dai dispositivi intelligenti ai servizi cloud.
La famiglia Mistral 3 è già disponibile in Mistral AI Studio , integrata con Amazon Bedrock, Azure Foundry, IBM WatsonX, OpenRouter, Fireworks e Together AI, ed è disponibile anche come scala aperta nelle collezioni Mistral Large 3 e Ministral 3 su Hugging Face.
Partner selezionati, come Modal e Unsloth AI , offrono soluzioni pronte all’uso per l’inferenza e il riaddestramento. NVIDIA NIM e AWS SageMaker promettono di aggiungere presto il supporto.
Per le aziende che cercano una soluzione più adatta alle sfide del loro settore e ai dati, Mistral offre servizi di formazione su modelli personalizzati. Inoltre, sul sito web è disponibile la documentazione tecnica dettagliata per diverse configurazioni, tra cui Ministral 3 3B-25-12 , Ministral 3 8B-25-12 , Ministral 3 14B-25-12 e Mistral Large 3 , oltre a materiali sulla governance e il rischio dell’IA nella sezione AI Governance Hub.
Detto questo, l’intelligenza artificiale sta andando anche verso modelli aperti e Open source altamente performanti. A vo orai la scelta se poter creare Cluster interni ed interoperabili dai vostri professionisti oppure fornire informazioni ad openai e Google.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CulturaRecentemente, una bobina di nastro magnetico è rimasta in un normale armadio universitario per mezzo secolo, e ora è improvvisamente diventata una scoperta di “archeologia informatica del secolo“. Un nastro con la scritta “UNIX Original…
CybercrimeUn massiccio archivio digitale contenente le informazioni private di circa 17,5 milioni di utenti Instagram sembrerebbe essere finito nelle mani dei cybercriminali. Qualche ora fa è stato segnalato l’allarme dopo che diversi utenti su Reddit…
Cyber ItaliaA nome di tutta la redazione di Red Hot Cyber, desideriamo rivolgere un sentito ringraziamento alla Polizia Postale e per la Sicurezza Cibernetica per il lavoro quotidiano svolto con professionalità, competenza e profondo senso dello…
VulnerabilitàUna falla di sicurezza è stata individuata all’interno di Linux, la quale può essere sfruttata in un brevissimo lasso di tempo, tant’è che il kernel comincia subito a operare con la memoria precedentemente rilasciata. Un…
CulturaSan Francisco: 9 gennaio 2007 L’aria aveva qualcosa di strano, come quando sai che sta per succedere qualcosa ma non sai cosa. Steve Jobs era sul palco del Macworld Conference & Expo, jeans, dolcevita nero,…