Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
TM RedHotCyber 970x120 042543
320×100

Autore: Marcello Politi

Machine Learning: Come Valutare e Ottimizzare il Tuo Codice per Massimizzare l’Efficienza

Nei miei articoli ho cerco spesso di sottolineare il fatto che le competenze di ingegneria del software sono essenziali anche quando si lavora nell’IA, perché alla fine della giornata quello che produciamo è del codice. Lo stesso vale per la teoria algoritmica, perché gli algoritmi di Machine Learning sono pur sempre algoritmi (anche se spesso sono visto come blackbox) e capire come valutarli è essenziale. Ad esempio, sapete come funziona il meccanismo di attenzione nei trasformer? Analisi di base degli algoritmi Quando studiamo o sviluppiamo un algoritmo, è essenziale capire di quali risorse in termini di tempo e spazio ha bisogno. Solo

Jupyter Notebook: Il Segreto dei Data Scientist o un Ostacolo al Successo? Scopri i Pro e i Contro

Questo tema è ancora molto discusso. C’è chi ama gli Jupyter Notebook e chi li odia. In questo articolo vorrei parlare un pò dei pro e contro di questo strumento e capire quali vantaggi potrebbe avere un data scientist lavorando con un IDE. Cos’è un Jupyter Notebooks? Un Jupyter Notebook è una web application interattiva che permette di lavorare e condividere documenti computazionali. Ciò significa che in tali notebook possiamo inserire testo, immagini, video, hyperlink come nei comuni documenti (word ad esempio), ma anche codice che può essere eseguito all’interno del notebook stesso. I notebook sono molto apprezzati dai Data Scientist poiché

Massimizza l’Efficienza del Modello: Svela Tecniche di Valutazione Avanzate nel Machine Learning

Nel sempre mutevole mondo del Machine Learning, selezionare il modello più efficace per un determinato compito è un impegno non banale, che può richiedere molto tempo. Tradizionalmente, i metodi di valutazione cosi detti offline, come lo split tra dati di training e test o la k-fold cross validation sono quelli più conosciuti e utilizzati dai data scientist. Tuttavia, possono risultare carenti nel considerare cambiameni della distribuzione che possono verificarsi in scenari reali. In poche parole il modello potrebbe essere stato trainato su dei dati che pero non sono simili a quelli reali che il modello deve gestire quando è in produzione. Entra

Intelligenza Artificiale Accessibile a Tutti: Creare e Sfruttare le API con Large Language Models

Il boom dei Large Language Models (LLMs) ha avvicinato molte persone, non solo i data scientist, al mondo dell’Intelligenza Artificiale. Tutti stanno utilizzando questi modelli nelle loro applicazioni e certamente non è necessario essere esperti di Machine Learning per farlo, è sufficiente utilizzare le API fornite da modelli pre-addestrati e ottenere i loro output! Vediamo quindi in questo articolo come creare e utilizzare le API in inferenza (cioè per fare predizioni) in tempo reale, su dati propri, in modo da integrarle in applicazioni complesse. Gli LLMs sono modelli enormi che contengono milioni se non miliardi di parametri, e che sono stati addestrati

Dietro le Quinte del Machine Learning: Ottimizzazione dei Flussi di Dati in Architetture Software Complesse

Spesso si pensa che il Machine Learning consista unicamente nella costruzionde di un modello, come ad esempio un Transformer o una CNN. Le cose purtroppo sono più complicate di cosi. Un vero prodotto consiste comunque in un architettura software dove il Machine Learning ne è solamente una parte benchè cruciale. Quindi ci sono molte cose a cui pensare, come ottimizzare la latency o il thoughput, come far si che i vari processi comunichino bene tra di loro, o ancora come passare i dati da un processo ad un altro. In questo articolo vorrei concentrarmi specialmente su quest’ultimo aspetto, in un’architettura software abbiamo

Google “Distilling Step by Step”: Come ottimizzare modelli linguistici di grandi dimensioni per l’uso pratico

Ad oggi, i large language models (LLMs) hanno dimensioni enormi e inoltre vengono utilizzati in molti software per permettere agli utenti di compiere azioni utilizzando semplicemente il linguaggio naturale. Le recenti ricerche sull’intelligenza artificiale hanno dimostrato che i modelli linguistici di grandi dimensioni hanno buone capacità di generalizzazione permettendoci di utilizzare lo zero-shot learning, cioè poter chiedere al modello di risolvere un task per il quale non è stato addestrato. Pensate che un modello come PaLM ha un totale di 540 miliardi di parametri, e questo non è neanche tra i modelli più grandi di oggi! Molte aziende desiderano utilizzare questi LLM

Sviluppo di una Pipeline di Training con RLHF per l’Allineamento dei LLMs: Strategie e Tecniche

Il Reinforcement Learning (RL) è storicamente legato ad ambiti diversi da quello dell’elaborazione del linguaggio naturale (NLP). Sicuramente è stato molto utilizzato nel campo della robotica. Pensate ad esempio ad un robot che deve apprendere come camminare rispettando un percorso. Questo robot riceve un feedback negativo ogni volta che va a sbattere contro il muro, e in questo modo, come fa un bambino, sbagliando impara la strategia migliore per arrivare a destinazione. Il Reinforcement learning with human feedback (RLHF), che ha recentemente attirato molta attenzione, ha avviato una nuova rivoluzione nell’applicazione delle tecniche di Reinforcment Learning (RL) nel campo dell’NLP, specialmente nei

Le Trappole Nascoste dell’Intelligenza Artificiale Generativa: Allucinazioni e Bias negli LLM, come mitigarli?

Ormai tutti parlano di AI generativa e Large Language Models. Modelli come chatGPT e Grok sono oggi sulla bocca di tutti, e sono molte le persone che vogliono adottare soluzioni basati su queste tecnologie per migliorare i loro business. C’è però da dire, che sebbene le capacità linguistiche di questi modelli siano impressionanti, sono ancora ben lontati dall’essere perfetti, anzi, ci sono molti problemi importanti che ancora non riusciamo a risolvere. Gli LLM come tutti i modelli di Machine/Deep learning imparano dai dati. Non si può quindi fuggire alla regola garbage in garbage out. Cioè se addestriamo i modelli su dati di

Secondo Aristotele, ChatGPT sarebbe in grado di pensare?

La rivoluzione dei Large Language Models, come chatGPT, ha avvicinato molte persone al campo dell’AI. L’impatto etico, sociale e persino politico di queste nuove tecnologie sta diventando sempre più importante e necessario. In diversi miei articoli ho spesso affrontato il tema di come sviluppare applicazioni basate sui LLM. Questo articolo, tuttavia, ha uno scopo diverso. Ho cercato di chattare con chatGPT, per capire le sue capacità da quello che si potrebbe definire un punto di vista un pò più filosofico. In questo articolo inizieremo col capire cos’è il sillogismo di Aristotele, per poi investigare le capacità di chatGPT di fare questo tipo

L’Arte dell’Inversione: Hidden Learning e il Futuro delle Minacce Informatiche

Alcuni di voi possono pensare che la data science e la cybersecurity siano due mondi separati, ma in realtà esistono interconnessioni significative tra le due discipline.  Dalla nascita del MLaaS, Machine Learning as a service, è diventato di fondamentale importanza capire i problemi che i modelli di Machine Learning possono comportare a livello di privacy e sicurezza. Uno dei problemi più studiati è quello del Model Inversion Attack, che è un tipo di attacco in cui si cerca di inferire le informazioni riguardo un sogetto usando l’output di un modello di Machine Learning che questo ha usato. In questo articolo però vorrei

Categorie