Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
2nd Edition GlitchZone RHC 970x120 2
LECS 320x100 1
È Guerra Aperta Sulle AI: La Cina Sfida con DeepSeek R1 i Giganti Statunitensi

È Guerra Aperta Sulle AI: La Cina Sfida con DeepSeek R1 i Giganti Statunitensi

Redazione RHC : 26 Gennaio 2025 11:29

DeepSeek R1 è un innovativo modello di intelligenza artificiale open source sviluppato da DeepSeek, un’azienda cinese, che sta facendo scalpore nel mondo dell’AI. A differenza dei modelli linguistici tradizionali che si concentrano principalmente sulla generazione e comprensione del testo, DeepSeek R1 è specializzato in inferenza logica, risoluzione di problemi matematici e processo decisionale in tempo reale. Questa attenzione unica lo distingue nel panorama dell’intelligenza artificiale, offrendo capacità di spiegazione e ragionamento migliorate.

Ciò che distingue davvero DeepSeek R1 è la sua natura open source, che consente a sviluppatori e ricercatori di esplorare, modificare e distribuire il modello entro determinati vincoli tecnici. Questa apertura promuove l’innovazione e la collaborazione nella comunità AI. Inoltre, DeepSeek R1 si distingue per la sua convenienza, con costi operativi significativamente inferiori rispetto ai suoi concorrenti.

Infatti, si stima che costi solo il 2% di quanto gli utenti spenderebbero per il modello O1 di OpenAI, rendendo il ragionamento AI avanzato accessibile a un pubblico più ampio.


Rhc Conference Sponsor Program 2

Sponsorizza la prossima Red Hot Cyber Conference!
Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference
Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. 
Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. 
Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

DeepSeek è un’azienda cinese di intelligenza artificiale con sede a Hangzhou, nella provincia di Zhejiang, Cina. Fondata nel 2023 da Liang Wenfeng, è interamente finanziata dall’hedge fund cinese High-Flyer, anch’esso con sede a Hangzhou.

Un inizio in sordina

A novembre, DeepSeek ha fatto notizia con l’annuncio di aver raggiunto prestazioni superiori a quelle di o1 di OpenAI, ma all’epoca offriva solo un modello R1-lite-preview limitato. Con la versione completa di R1 uscita lunedì scorso e il documento tecnico di accompagnamento, l’azienda ha rivelato un’innovazione sorprendente: un deliberato allontanamento dal processo convenzionale di fine-tuning supervisionato (SFT) ampiamente utilizzato nell’addestramento di modelli linguistici di grandi dimensioni (LLM).

SFT, una fase standard nello sviluppo dell’IA, prevede l’addestramento di modelli su set di dati curati per insegnare il ragionamento passo dopo passo, spesso definito chain-of-thought (CoT). È considerato essenziale per migliorare le capacità di ragionamento. Tuttavia, DeepSeek ha sfidato questa ipotesi saltando completamente SFT, optando invece per affidarsi all’apprendimento per rinforzo (RL) per addestrare il modello.

Questa mossa audace ha costretto DeepSeek-R1 a sviluppare capacità di ragionamento indipendenti, evitando la fragilità spesso introdotta dai set di dati prescrittivi. Mentre emergono alcuni difetti, che hanno portato il team a reintrodurre una quantità limitata di SFT durante le fasi finali di creazione del modello, i risultati hanno confermato la svolta fondamentale: il solo apprendimento per rinforzo potrebbe determinare guadagni sostanziali in termini di prestazioni.

Un passo avanti verso l’AGI?

L’azienda afferma che l’approccio di training di DeepSeek-R1 si discosta dai metodi tradizionali che richiedono enormi set di dati e risorse di elaborazione. Invece, si concentra su:

  • Dati di pre-addestramento e dati sintetici: mentre le leggi di scalabilità suggeriscono che set di dati più grandi producono risultati migliori, l’approccio ai dati ottimizzati e curati di DeepSeek sfida l’idea che di più è sempre meglio.
  • Ottimizzazione post-training: tecniche come Reinforcement Learning from Human Feedback (RLHF) e self-play stanno ridefinendo l’efficienza post-training. I loop iterativi di DeepSeek esemplificano come questi metodi massimizzino le prestazioni senza affidarsi alla forza bruta.
  • Inferenza e calcolo in fase di test: l’attivazione sparsa rappresenta una svolta, consentendo ai modelli di offrire prestazioni elevate con un calcolo minimo durante casi d’uso reali.

Queste tecniche consentono a DeepSeek-R1 di essere circa il 95,3% meno costoso da gestire rispetto a Claude 3.5 Sonnet di Anthropic. La sua architettura Mixture-of-Experts (MoE), che attiva solo una frazione di parametri per token, contrasta nettamente con i modelli di forza bruta che coinvolgono tutti i parametri, gonfiando i costi.

DeepSeek avrebbe addestrato il suo modello base, denominato V3, con un budget di 5,58 milioni di dollari in due mesi, secondo l’ingegnere Nvidia Jim Fan. Sebbene l’azienda non abbia divulgato i dati di addestramento esatti utilizzati, le tecniche moderne rendono l’addestramento su web e set di dati aperti sempre più accessibili. Stimare il costo totale dell’addestramento di DeepSeek-R1 è impegnativo. Sebbene l’esecuzione di 50.000 GPU suggerisca spese significative (potenzialmente centinaia di milioni di dollari), le cifre precise rimangono speculative.

Ciò che è chiaro, però, è che DeepSeek è stato molto innovativo fin dall’inizio. L’anno scorso, sono emersi resoconti su alcune innovazioni iniziali che stava realizzando, su tecnologie come Mixture of Experts e Multi-Head Latent Attention.

DeepSeek R1 funziona anche localmente

Sebbene le capacità di DeepSeek R1 siano impressionanti, potresti chiederti come sfruttare la sua potenza sulla tua macchina. È qui che entra in gioco Ollama. Ollama è uno strumento versatile progettato per eseguire e gestire Large Language Model (LLM) come DeepSeek R1 su personal computer. Ciò che rende Ollama particolarmente interessante è la sua compatibilità con i principali sistemi operativi tra cui macOS, Linux e Windows, rendendolo accessibile a un’ampia gamma di utenti.

Una delle caratteristiche più importanti di Ollama è il suo supporto per l’utilizzo di API, inclusa la compatibilità con l’API OpenAI. Ciò significa che puoi integrare senza problemi DeepSeek R1 nei tuoi progetti o applicazioni esistenti che sono già impostati per funzionare con i modelli OpenAI.

Per iniziare a eseguire DeepSeek R1 in locale utilizzando Ollama , segui queste istruzioni di installazione per il tuo sistema operativo:

  1. Per macOS:
    • Scarica il programma di installazione dal sito web di Ollama
    • Installa ed esegui l’applicazione
  2. Per Linux:
    • Utilizzare il comando curl per un’installazione rapida: curl  https://ollama.ai/install.sh  | sh
    • In alternativa, installare manualmente utilizzando il pacchetto .tgz
  3. Per Windows:
    • Scarica ed esegui il programma di installazione dal sito web di Ollama

Una volta installato, puoi iniziare a usare DeepSeek R1 con semplici comandi. Controlla la tua versione di Ollama con  ollama -v , scarica il modello DeepSeek R1 usando  ollama pull deepseek-r1 ed eseguilo con  ollama run deepseek-r1 .

Con questi passaggi, sarai in grado di sfruttare la potenza di DeepSeek R1 direttamente sul tuo personal computer, aprendo un mondo di possibilità per il ragionamento e la risoluzione dei problemi guidati dall’intelligenza artificiale.

Conclusioni

DeepSeek R1 rappresenta un passo significativo nel panorama dell’intelligenza artificiale, distinguendosi per le sue capacità uniche di inferenza logica, risoluzione di problemi matematici e processo decisionale in tempo reale. L’approccio innovativo adottato da DeepSeek, che combina la natura open source del modello con tecniche avanzate come l’apprendimento per rinforzo e l’attivazione sparsa, ridefinisce gli standard dell’AI, rendendola più efficiente e accessibile.

La possibilità di eseguire DeepSeek R1 in locale, grazie a strumenti come Ollama, amplia ulteriormente le opportunità di utilizzo, permettendo a sviluppatori, ricercatori e aziende di sfruttarne le potenzialità senza dipendere esclusivamente da soluzioni cloud costose.

Sebbene alcune sfide tecniche permangano, come l’ottimizzazione delle capacità di ragionamento e l’affinamento dei metodi di addestramento, DeepSeek R1 dimostra che è possibile coniugare efficienza, scalabilità e innovazione. Con costi operativi drasticamente ridotti e una versatilità unica, questo modello apre nuove strade verso un’AI più sostenibile e accessibile, avvicinandoci ulteriormente al sogno di un’intelligenza artificiale generale (AGI).

Il futuro dell’AI non è solo fatto di prestazioni superiori, ma di accessibilità e collaborazione. DeepSeek R1 è la prova concreta che l’innovazione può prosperare anche attraverso approcci aperti e non convenzionali.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Google, Amazon e Meta e la loro “Guerra Sottomarina”
Di Redazione RHC - 14/11/2025

Il traffico globale, come sanno i lettori di RHC, viaggia per la maggior parte sotto il mare. Secondo TeleGeography, istituto specializzato nelle telecomunicazioni, nel mondo sono attivi più di 530 s...

Immagine del sito
Una campagna di spionaggio “autonoma” è stata orchestrata dall’intelligenza artificiale
Di Redazione RHC - 14/11/2025

Un’analisi condotta negli ultimi mesi aveva evidenziato come l’evoluzione dei sistemi di intelligenza artificiale stesse raggiungendo un punto critico per la sicurezza informatica, con capacità r...

Immagine del sito
Uno 0day su FortiWeb WAF sfruttato attivamente! E rimuovete le interfacce di Admin da Internet
Di Redazione RHC - 14/11/2025

Gli aggressori stanno attivamente sfruttando una falla critica nel sistema di protezione delle applicazioni web FortiWeb (WAF) prodotto da Fortinet, che potrebbe essere utilizzata come mezzo per condu...

Immagine del sito
Un bug 0Day per un plugin WordPress in vendita a 6000 euro nelle underground
Di Redazione RHC - 14/11/2025

Su uno dei più noti forum russi per la compravendita di vulnerabilità e strumenti offensivi, il thread è arrivato come una normale inserzione commerciale, ma il contenuto è tutt’altro che banale...

Immagine del sito
Cos’è la Misevoluzione: l’Evoluzione Autonoma degli Agenti AI, e non è sempre buona
Di Redazione RHC - 13/11/2025

Shanghai, 11 novembre 2025 – Un nuovo studio condotto dallo Shanghai Artificial Intelligence Laboratory, in collaborazione con la Shanghai Jiao Tong University, la Renmin University of China e la Pr...