Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ransomfeed 970x120 1
Banner Ransomfeed 320x100 1

Tag: rete neurale

OpenAI lavora su una rete neurale per la creazione musicale

Secondo The Information, OpenAI sta lavorando attivamente alla propria rete neurale per la creazione musicale, che competerà con progetti come Suno e Udio. Le fonti della pubblicazione riportano che il nuovo prodotto dovrebbe avere diverse modalità. In primo luogo, genererà semplicemente una traccia in base a una richiesta di testo. In secondo luogo, il modello sarà in grado di creare musica per una traccia vocale registrata dall’utente o per un video. Questo amplia significativamente la gamma di applicazioni dell’IA. OpenAI è molto cauta in materia di copyright, soprattutto dopo il lancio di Sora 2, che inizialmente generava copie di molti personaggi famosi,

Potenza da supercalcolo in un frigo: ecco la rivoluzione BIE-1

Il 24 ottobre, nella zona di cooperazione approfondita Guangdong-Macao di Hengqin, è stato ufficialmente presentato il primo sistema di calcolo intelligente ispirato al cervello umano: il “BI Explorer BIE-1″. Zhang Xu, direttore del Guangdong Institute of Intelligent Science and Technology e accademico dell’Accademia cinese delle scienze, ha descritto il progetto come una svolta significativa. Secondo Zhang, il BIE-1 amplia le modalità di distribuzione del supercalcolo, fornendo le basi tecnologiche per un futuro sistema di potenza di calcolo più sostenibile, flessibile e accessibile. Un supercomputer nel formato di un piccolo frigorifero Durante l’evento di lancio, Nie Lei, direttore generale di Zhuhai Hengqin Neogene

DeepSeek sfida i grandi dell’AI: taglio del 50% dei costi e delle API

L’azienda cinese DeepSeek ha presentato una versione sperimentale del suo modello linguistico, DeepSeek-V3.2-Exp, che per la prima volta implementa una propria versione di attenzione sparsa, una tecnica che riduce significativamente i costi computazionali nell’elaborazione di lunghe sequenze di testo. Il nuovo meccanismo, denominato DeepSeek Sparse Attention, si dice in grado di ridurre di quasi la metà i costi di gestione del modello. Per dimostrare questi risparmi, l’azienda ha ridotto il prezzo delle API del 50%. Il problema del carico computazionale nei modelli linguistici di grandi dimensioni è particolarmente acuto per i dialoghi lunghi. La classica architettura Transformer, sviluppata nel 2017, confronta ogni

Categorie