Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Fortinet 970x120px
320x100 Itcentric

Autore: Marcello Politi

Introduzione all’NLP: tutto quello che serve per cominciare!

I dati di tipo testuale stanno aumentando in modo esorbitante, e la maggior parte di questi dati non sono strutturati, quindi è difficile ricavarne informazioni utili. Degli esempi di questa enorme quantità di dati che vengono diffusi ogni giorno sono i tweet, i post sui social media o i forum online. Le persone scrivono i loro commenti utilizzando un linguaggio non sempre corretto, spesso ricorrendo al dialetto o alle emoji per far capire le loro emozioni, e quindi generando dati di bassa qualità. L’obiettivo principale dei diversi approcci di Natural Language Processing (NLP) è quello di ottenere una comprensione del testo simile

Ottimizzare Modelli di Deep Learning in produzione

Quando un modello di Machine Learning viene messo in produzione, spesso devono essere soddisfatti requisiti che invece non vengono presi in considerazione nella fase di prototipazione e sviluppo del modello. Ad esempio, in produzione il modello dovrà essere in grado gestire molte richieste da diversi utenti che che utilizzano il servizio. Si vorrà quindi ottimizzare, ad esempio, la latenza e/o il throughput. Ciò significa che il modello di apprendimento automatico deve essere molto veloce nel fare le sue previsioni, e per questo esistono varie tecniche che servono ad aumentare la velocità di inferenza del modello stesso, in questo articolo vedremo le più

Dalle orbite planetarie alla relatività: Una storia di dati e scoperte

La storia di Tycho Brahe, Keplero, Newton e Einstein è una storia di scoperte scientifiche e del valore dei dati. È una storia che dimostra l’importanza della raccolta e lo studio dei dati nella ricerca della conoscenza e di come l’analisi scrupolosa dei dati possa portare a nuove intuizioni e comprensioni. Questo principio è anche alla base del Machine Learning, che prevede l’uso di algoritmi per analizzare grande quantità di dati e fare previsioni o prendere decisioni. Tycho Brahe è stato un astronomo danese che ha condotto osservazioni dettagliate delle posizioni dei pianeti e delle stelle, utilizzando gli strumenti più avanzati del

Capacità Emergenti nei Large Language Models

Sia il mondo naturale che il campo dell’intelligenza artificiale presentano numerosi casi di capacità emergenti. Quando i singoli componenti interagiscono all’interno di un sistema, producono comportamenti e modelli che non sono stati progettati esplicitamente. Capacità Emergenti In Natura Esistono molte fenomeni emergenti in natura, vediamo alcuni esempi: Intelligenza collettiva delle formiche: le formiche, possiedono capacità cognitive relativamente semplici e informazioni limitate. Tuttavia, quando si riuniscono e interagiscono all’interno di una colonia, mostrano comportamenti cooperativi complessi e altamente efficienti che portano all’emergere di un’intelligenza sofisticata, senza alcun controllo centrale o istruzioni esplicite. Coscienza: Un neurone, l’unità fondamentale del cervello, ha principi operativi relativamente

Cosa sono i Large Language Models? Dietro le Quinte dell’Intelligenza Artificiale

Nel mondo in rapida evoluzione dell’intelligenza artificiale (IA), un termine è emerso con un’importanza crescente: Modello linguistico o Language Model, in particolare modelli linguistici di grandi dimensioni quindi chiamati Large Language Models. Probabilmente avrete già usato tool come chatGPT, cioè modelli di Deep Learning che generano testo coerente e simile a quello umano, in tal caso avete già sperimentato le capacità dei Large Language Models. In questo articolo approfondiremo cosa sono i modelli linguistici, come funzionano ed esploreremo alcuni esempi importanti nella letteratura scientifica. Modelli Linguistici In sintesi, un modello linguistico è un software in grado di prevedere la probabilità di una

Scopriamo le differenze tra un algoritmo di Machine Learning e Deep Learning

Nel mondo dell’intelligenza artificiale sentiamo spesso parlare di due termini, Machine Learning (ML) e Deep Learning (DL). Sono entrambi metodi per implementare l’AI attraverso l’addestramento o training di algoritmi di apprendimento automatico, che verrano poi utilizzati per fare predizioni sul futuro e prendere decisioni. Queste due materie utilizzano approcci e hanno capacità e caratteristiche differenti. In questo articolo andremo ad esplorare le differenze tra i due e capire meglio come funzionano. Machine Learning Il Machine Learning è la materia che si occupa della progettazione di algoritmi capaci di fare predizioni imparando pattern di dati passati. Un algoritmo di Machine Learning si differenzia

Categorie