Questa settimana, OpenAI ha presentato un modello di linguaggio aperto tanto atteso chiamato gpt-oss. Il suo punto di forza è la possibilità di essere eseguito localmente sul proprio computer, inclusi i Mac con processori Apple Silicon. Ecco come funziona e cosa aspettarsi.
Probabilmente era una mossa pianificata dopo il rilascio di DeepSeek R1, che ha creato molto rumore nel mondo dell’intelligenza artificiale, cosa che OpenAI non poteva ignorare.
Il modello è disponibile in due versioni: gpt-oss-20b e gpt-oss-120b. La prima versione è un modello “medio” che può essere eseguito su Mac di fascia alta se dotati di risorse sufficienti. La seconda è un modello “pesante” che richiede hardware molto più potente. Si prevede che la versione più piccola presenti allucinazioni più spesso, ovvero inventa fatti, perché ha un set di dati di addestramento più piccolo. Ma funziona più velocemente e può essere eseguita anche sui computer domestici.
Anche nella sua versione semplificata, gpt-oss è uno strumento interessante per chiunque voglia provare a eseguire un modello linguistico di grandi dimensioni direttamente sul proprio laptop. Tuttavia, è importante capire che, a differenza del noto ChatGPT, questo modello funziona senza connessione Internet e, di default, non dispone di molti dei “trucchi” dei chatbot avanzati. Ad esempio, non controlla le risposte tramite i motori di ricerca, il che aumenta significativamente il rischio di errori.
OpenAI consiglia un minimo di 16 GB di RAM per eseguire gpt-oss-20b, ma in realtà si tratta di un limite minimo, utile solo per vedere come funziona. Non sorprende che Apple abbia recentemente smesso di vendere Mac con 8 GB di RAM: l’intelligenza artificiale sta diventando sempre più un’attività quotidiana per i computer.
Iniziare è semplice. Per prima cosa, devi installare l’applicazione Ollama, che ti permette di controllare il modello. basta scrivere le seguenti istruzioni:
ollama pull gpt-oss:20b ollama run gpt-oss:20b
Il modello occuperà circa 15 GB di spazio su disco. Una volta scaricato, può essere selezionato nell’interfaccia di Ollama. Se lo si desidera, è possibile abilitare la “modalità aereo” nelle impostazioni per garantire un funzionamento completamente locale: non è richiesta alcuna connessione Internet o registrazione.
A questo punto inserisci una query e guarda il risultato. Ma ricorda che il modello utilizza tutte le risorse disponibili e il Mac può rallentare notevolmente. Su un MacBook Air con chip M4 e 16 GB di memoria, ad esempio, la risposta a “ciao” ha richiesto più di cinque minuti. La query “chi è stato il 13° presidente degli Stati Uniti” circa 43 minuti. Quindi, se intendi usare seriamente il modello, 16 GB non sono quindi sufficienti.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…