
L’azienda francese Mistral AI ha presentato la sua linea di modelli Mistral 3, rendendoli completamente open source con licenza Apache 2.0. La serie include diversi modelli compatti e densi con 3, 8 e 14 miliardi di parametri, oltre al modello di punta Mistral Large 3. Si tratta di un modello “Misture-of-Experts” con 41 miliardi di parametri attivi e 675 miliardi di parametri condivisi, che l’azienda definisce la sua soluzione più potente fino ad oggi.
Mistral Large 3 è stato addestrato da zero su circa 3.000 GPU NVIDIA H200. Dopo un ulteriore addestramento, il modello ha raggiunto il livello dei migliori modelli didattici open source nell’elaborazione di query comuni, ha supportato la comprensione delle immagini e ha dimostrato ottimi risultati in modalità multilingue, soprattutto per lingue diverse da inglese e cinese.
Nella classifica LMArena dei modelli open source non specificamente progettati per il ragionamento complesso, Mistral Large 3 ha debuttato al secondo posto ed è entrato nella top ten tra tutti i modelli OSS.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Gli sviluppatori hanno immediatamente rilasciato sia la versione base che quella didattica di Mistral Large 3. È stata promessa una versione separata incentrata sul ragionamento, che verrà rilasciata in seguito. Queste versioni aperte sono pensate per fungere da punto di partenza per la personalizzazione in base alle esigenze aziendali, anche lato client.
Per semplificare l’implementazione, Mistral collabora con NVIDIA, vLLM e Red Hat. Un benchmark per Mistral Large 3 è pubblicato in formato NVFP4, preparato utilizzando il progetto llm-compressor Questa versione può essere eseguita in modo efficiente su sistemi Blackwell NVL72, nonché su nodi con 8 GPU A100 o H100 tramite vLLM . NVIDIA ha aggiunto kernel attention e MoE ottimizzati per la nuova architettura, il supporto per split prefill e decoding e, in collaborazione con Mistral, ha implementato la decodifica speculativa. L’intera gamma Mistral 3 è supportata in TensorRT-LLM e SGLang consentendo le massime prestazioni con bassa profondità di bit e contesto lungo.
Per scenari edge e locali, Mistral produce la famiglia Ministral 3. Questi tre modelli supportano 3, 8 e 14 miliardi di parametri, ciascuno disponibile nelle versioni base, instructional e reasoning, tutti in grado di gestire immagini. Grazie al supporto multilingue e multiformato, vengono offerti come suite universale per una varietà di esigenze aziendali e di sviluppo: dai servizi online alle applicazioni eseguite localmente o su dispositivi embedded.
Particolare enfasi è posta sull’efficienza. Secondo Mistral, Ministral 3 dimostra il miglior rapporto costo-qualità tra i modelli open source della sua categoria. Le versioni didattiche eguagliano e superano le loro controparti in termini di accuratezza, mentre in scenari reali generano spesso un ordine di grandezza inferiore di token, riducendo latenza e costi.
Quando l’accuratezza è l’unico fattore importante, le varianti di ragionamento possono richiedere più tempo per calcolare e produrre una risposta più accurata. A titolo di esempio, citano Ministral 3 14B, che ha ottenuto un punteggio di circa l’85% nella sua categoria nel benchmark AIME 2025 Olympiad.
Tutti questi modelli sono progettati non solo per grandi data center, ma anche per sistemi edge. NVIDIA offre distribuzioni Ministral ottimizzate su workstation DGX Spark , PC e laptop dotati di RTX e piattaforme Jetson Orin . Ciò significa che lo stesso stack di modelli può essere utilizzato per applicazioni che vanno dalla robotica e dai dispositivi intelligenti ai servizi cloud.
La famiglia Mistral 3 è già disponibile in Mistral AI Studio , integrata con Amazon Bedrock, Azure Foundry, IBM WatsonX, OpenRouter, Fireworks e Together AI, ed è disponibile anche come scala aperta nelle collezioni Mistral Large 3 e Ministral 3 su Hugging Face.
Partner selezionati, come Modal e Unsloth AI , offrono soluzioni pronte all’uso per l’inferenza e il riaddestramento. NVIDIA NIM e AWS SageMaker promettono di aggiungere presto il supporto.
Per le aziende che cercano una soluzione più adatta alle sfide del loro settore e ai dati, Mistral offre servizi di formazione su modelli personalizzati. Inoltre, sul sito web è disponibile la documentazione tecnica dettagliata per diverse configurazioni, tra cui Ministral 3 3B-25-12 , Ministral 3 8B-25-12 , Ministral 3 14B-25-12 e Mistral Large 3 , oltre a materiali sulla governance e il rischio dell’IA nella sezione AI Governance Hub.
Detto questo, l’intelligenza artificiale sta andando anche verso modelli aperti e Open source altamente performanti. A vo orai la scelta se poter creare Cluster interni ed interoperabili dai vostri professionisti oppure fornire informazioni ad openai e Google.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.


L’analisi che segue esamina il vettore di attacco relativo alla CVE-2025-47761, una vulnerabilità individuata nel driver kernel Fortips_74.sys utilizzato da FortiClient VPN per Windows. Il cuore della problematica risiede in una IOCTL mal gestita che…

Una vulnerabilità critica è stata individuata in MongoDB, tra le piattaforme di database NoSQL più utilizzate a livello globale. Questa falla di sicurezza, monitorata con il codice CVE-2025-14847, permette agli aggressori di estrarre dati sensibili…

Il procuratore generale del Texas Ken Paxton ha accusato cinque importanti produttori di televisori di aver raccolto illegalmente dati degli utenti utilizzando la tecnologia di riconoscimento automatico dei contenuti (ACR) per registrare ciò che i…

L’Autorità Garante della Concorrenza e del Mercato italiana (AGCM) ha imposto una sanzione significativa ad Apple. La sanzione ammonta a 98,6 milioni di euro, ovvero circa 115 milioni di dollari. ed è relativa a al…

“Salve.” Non “Gentile”, non “Spettabile”, non nome e cognome.Solo “Salve.” A leggerla così, fa quasi tenerezza. Sembra l’inizio di una mail scritta di corsa, magari riciclata da un modello vecchio, senza nemmeno lo sforzo di…