Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Desktop
Banner Ransomfeed 320x100 1

Tag: modello linguistico

Nanochat: crea il tuo LLM, addestralo e rendilo funzionante sul tuo PC con 100 dollari

Lo sviluppatore Andrej Karpathy ha presentato nanochat, una versione minimalista e completamente open source di ChatGPT che può essere addestrata ed eseguita su un solo computer. Progettato come piattaforma di apprendimento per il corso LLM101n di Eureka Labs, il progetto consente agli utenti di costruire il proprio modello linguistico “da zero all’interfaccia web” senza dipendenze ingombranti o infrastrutture complesse. L’obiettivo di nanochat è dimostrare che un analogo base di ChatGPT può essere costruito in poche ore e per circa cento dollari. Lo script speedrun.sh esegue automaticamente tutti i passaggi, dalla tokenizzazione e dall’addestramento all’inferenza e al lancio di un’interfaccia web che può

Le guerre dei feed: le PsyOps pro israele sbarcano su TikTok e ChatGPT

Il governo israeliano ha assegnato alla società americana Clock Tower X LLC un contratto da 6 milioni di dollari per condurre una campagna mediatica su larga scala negli Stati Uniti, riporta Nick Cleveland-Stout su Responsible Statecraft. Secondo i documenti pubblicati sul sito web del Dipartimento di Giustizia degli Stati Uniti, la società è tenuta a creare contenuti rivolti al pubblico della Generazione Z e a generare almeno 50 milioni di impression al mese su TikTok, Instagram, YouTube e altri canali digitali. Uno degli obiettivi di Clock Tower sarà quello di ospitare contenuti e creare siti web che influenzeranno il modo in cui

DeepSeek sfida i grandi dell’AI: taglio del 50% dei costi e delle API

L’azienda cinese DeepSeek ha presentato una versione sperimentale del suo modello linguistico, DeepSeek-V3.2-Exp, che per la prima volta implementa una propria versione di attenzione sparsa, una tecnica che riduce significativamente i costi computazionali nell’elaborazione di lunghe sequenze di testo. Il nuovo meccanismo, denominato DeepSeek Sparse Attention, si dice in grado di ridurre di quasi la metà i costi di gestione del modello. Per dimostrare questi risparmi, l’azienda ha ridotto il prezzo delle API del 50%. Il problema del carico computazionale nei modelli linguistici di grandi dimensioni è particolarmente acuto per i dialoghi lunghi. La classica architettura Transformer, sviluppata nel 2017, confronta ogni

Tencent sfida i giganti! Il nuovo Hunyuan-MT batte Google Translate e GPT-4.1

L’azienda cinese Tencent ha reso pubblico il codice sorgente di una nuova serie di modelli linguistici Hunyuan-MT, appositamente ottimizzati per le attività di traduzione. Gli sviluppatori affermano che gli algoritmi mostrano risultati migliori di Google Translate nel popolare benchmark WMT25. La serie comprende quattro modelli, tra cui due modelli di punta: Hunyuan-MT-7B e Hunyuan-MT-Chimera-7B, ciascuno contenente 7 miliardi di parametri. Vengono inoltre presentate due versioni compresse, che utilizzano meno memoria, ma operano con una leggera perdita nella qualità della traduzione. Tencent ha utilizzato quattro set di dati per l’addestramento. Due di questi includevano testi in 33 lingue senza traduzione, mentre gli altri

GPT-5 è quì! l’IA da miliardi di dollari che divora GPU e fa sembrare GPT-4 un giocattolo

OpenAI ha lanciato il suo nuovo modello di punta e il messaggio è chiaro: affidabilità, potenza e un cambio radicale nel modo in cui interagiamo con l’intelligenza artificiale. Dopo anni in cui i modelli linguistici erano visti come strumenti sperimentali, GPT-5 segna il passaggio definitivo dal prototipo alla produzione. Uno dei punti di forza è il sistema unificato con “smart router”: non serve più scegliere manualmente quale modello usare. GPT-5 analizza la richiesta e decide autonomamente se fornire una risposta rapida o attivare una modalità di calcolo più complessa per problemi impegnativi. Un’unica interfaccia, potenza su richiesta. Meno Allucinazioni e più ragionamento

Esce GPT-OSS: il nuovo modello open source di OpenAI che funziona senza connessione ad internet

Questa settimana, OpenAI ha presentato un modello di linguaggio aperto tanto atteso chiamato gpt-oss. Il suo punto di forza è la possibilità di essere eseguito localmente sul proprio computer, inclusi i Mac con processori Apple Silicon. Ecco come funziona e cosa aspettarsi. Probabilmente era una mossa pianificata dopo il rilascio di DeepSeek R1, che ha creato molto rumore nel mondo dell’intelligenza artificiale, cosa che OpenAI non poteva ignorare. Il modello è disponibile in due versioni: gpt-oss-20b e gpt-oss-120b. La prima versione è un modello “medio” che può essere eseguito su Mac di fascia alta se dotati di risorse sufficienti. La seconda è

Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio

Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché. 70 miliardi di parametri: cosa significa davvero Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2

Hai bisogno di una Product Key per Microsoft Windows? Nessun problema, chiedilo a Chat-GPT

ChatGPT si è rivelato ancora una volta vulnerabile a manipolazioni non convenzionali: questa volta ha emesso chiavi di prodotto Windows valide, tra cui una registrata a nome della grande banca Wells Fargo. La vulnerabilità è stata scoperta durante una sorta di provocazione intellettuale: uno specialista ha suggerito che il modello linguistico giocasse a indovinelli, trasformando la situazione in un aggiramento delle restrizioni di sicurezza. L’essenza della vulnerabilità consisteva in un semplice ma efficace bypass della logica del sistema di protezione. A ChatGPT 4.0 è stato offerto di partecipare a un gioco in cui doveva indovinare una stringa, con la precisazione che doveva

Categorie