Redazione RHC : 27 Agosto 2023 09:35
Gli specialisti IBM hanno sviluppato un nuovo approccio per creare reti neurali ad alte prestazioni, ispirate alla struttura del cervello umano. I risultati del loro studio sono pubblicati sulla rivista Nature .
Le reti neurali profonde mostrano progressi impressionanti nel campo dell’intelligenza artificiale generativa. Tuttavia, la loro architettura presenta limitazioni che impediscono la massima efficienza.
Nelle reti neurali tradizionali, i blocchi di memoria e di elaborazione dati sono separati. Ciò si traduce in un elevato sovraccarico di comunicazione e riduce la velocità e l’efficienza.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence".
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
IBM ha deciso di ispirarsi al modello ideale: il cervello umano. Nel nuovo chip, 64 core informatici analogici interagiscono strettamente, come le sinapsi nel cervello.
Ciò consente di ottenere prestazioni elevate con un basso consumo energetico.
Il chip mostra una precisione del 92,81% sul set di dati CIFAR-10. Questo è paragonabile alle reti neurali software. Il set di dati CIFAR-10 (Canadian Institute For Advanced Research) è una raccolta di immagini comunemente utilizzate per addestrare algoritmi di apprendimento automatico e visione artificiale . È uno dei set di dati più utilizzati per la ricerca sul machine learning
Secondo uno degli autori dello studio, il nuovo approccio apre prospettive per l’utilizzo dell’intelligenza artificiale nei dispositivi mobili e integrati e ridurrà anche i costi energetici dei fornitori di servizi cloud.
In futuro, si prevede di aggiungere blocchi digitali al chip per implementare reti neurali completamente in pipeline. Ciò consentirà l’uso più efficiente dei core di calcolo analogici.
Pertanto, il nuovo chip IBM rappresenta un passo importante verso la creazione di un’intelligenza artificiale efficiente dal punto di vista energetico ispirata all’architettura del cervello umano. Ciò contribuirà ad espandere la portata delle reti neurali e a ridurre i costi energetici.
Nella giornata di oggi, la nuova cyber-gang “The Gentlemen” rivendica all’interno del proprio Data Leak Site (DLS) al laboratorio Santa Rita. Disclaimer: Questo rapporto include screenshot e/o t...
SAP ha reso disponibili degli aggiornamenti per la sicurezza Martedì, con l’obiettivo di risolvere varie vulnerabilità. Tra queste vulnerabilità, ve ne sono tre particolarmente critiche che si ve...
Ci stiamo avviando a passi da gigante vero l’uroboro, ovvero il serpente che mangia la sua stessa coda. Ne avevamo parlato qualche settimana fa che il traffico umano su internet è in calo vertigino...
A fine agosto, GreyNoise ha registrato un forte aumento dell’attività di scansione mirata ai dispositivi Cisco ASA. Gli esperti avvertono che tali ondate spesso precedono la scoperta di nuove vulne...
Con una drammatica inversione di tendenza, il Nepal ha revocato il blackout nazionale sui social media imposto la scorsa settimana dopo che aveva scatenato massicce proteste giovanili e causato almeno...