Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Desktop
LECS 320x100 1

Tag: machine learning

L’Intelligenza Artificiale ha Fame! Ma il cibo digitale si sta velocemente esaurendo

Le aziende che sviluppano l’intelligenza artificiale si trovano ad affrontare un nuovo problema: il volume di Internet potrebbe non essere sufficiente per i loro ambiziosi progetti. Il Wall Street Journal ha descritto le possibili prospettive nel campo dell’intelligenza artificiale. La crescente potenza dei sistemi sviluppati da OpenAI, Google e altri richiede quantità sempre maggiori di informazioni per la formazione, portando a tensioni nel mercato dei dati pubblici. Tuttavia, alcuni proprietari di dati ne limitano l’accesso alle società di intelligenza artificiale. Gli esperti del settore avvertono che la domanda di dati testuali di alta qualità potrebbe superare l’offerta entro due anni, rallentando potenzialmente il progresso

ZeroTrust Dataset: Il Profondo Rosso degli Attacchi Contraddittori e di Avvelenamento dei dati e il loro controllo

Gli attacchi di Avvelenamento dei dati nell’ambito dell’Intelligenza Artificiale (IA) stanno diventando sempre più pervasivi, con potenziali conseguenze devastanti. L’accesso non autorizzato ai dataset e la manipolazione degli stessi possono generare gravi problemi di sicurezza e affidabilità nei modelli di apprendimento automatico. La manipolazione di queste preziose informazioni, attraverso attacchi di avvelenamento dei dati (Poisoning Attack) o contraddittori (Adversarial Attack), possono portare a degli output completamente differenti rispetto alle attese. Ad esempio, nell’ambito del riconoscimento delle immagini, un’immagine può essere modificata in modo impercettibile aggiungendo del rumore o alterando pochissimi pixel. Tuttavia, queste piccolissime modifiche possono essere sufficienti a confondere un modello

Intelligenza Artificiale ed Economia. Possibili scenari futuri

“Parole, parole, parole” così recitava un brano affidato alla voce di Mina appartenente al filone della canzone leggera italiana. Ma cosa hanno in comune lo splendido testo di una canzone degli anni ‘70 con un articolo pubblicato su di una rivista online che si occupa di nuove tecnologie e intelligenza artificiale? In effetti, anche in categorie che con l’amore hanno poco o nulla a che fare, si sentono spesso: parole, parole, tante parole. Il nuovo mantra, sembra essere diventato “intelligenza artificiale”. Disciplina dell’informatica che cerca di replicare il ragionamento e il pensiero umano. Anche se in questi ultimi mesi, più che la

Asimov aveva ragione! Le tre leggi della robotica sono alla base della “costituzione robotica” di Google AutoRT

Il team di DeepMind , una divisione di Google , ha introdotto miglioramenti significativi nella robotica. Tali miglioramento sono volti a rendere i robot più veloci, più efficienti e più sicuri negli ambienti del mondo reale.  L’innovazione principale è il sistema di raccolta dati AutoRT con la “Costituzione robotica”, basata sulle “Tre leggi della robotica” di Isaac Asimov. Questo concetto prevede l’integrazione di un modello di linguaggio visivo (VLM) e di un modello di linguaggio di grandi dimensioni (LLM). L’integrazione consente ai robot di adattarsi ad ambienti non familiari e determinare la gamma di compiti adatti. AutoRT è controllato da una “Costituzione robotica” contenente una serie di istruzioni sicure

Dietro le Quinte del Machine Learning: Ottimizzazione dei Flussi di Dati in Architetture Software Complesse

Spesso si pensa che il Machine Learning consista unicamente nella costruzionde di un modello, come ad esempio un Transformer o una CNN. Le cose purtroppo sono più complicate di cosi. Un vero prodotto consiste comunque in un architettura software dove il Machine Learning ne è solamente una parte benchè cruciale. Quindi ci sono molte cose a cui pensare, come ottimizzare la latency o il thoughput, come far si che i vari processi comunichino bene tra di loro, o ancora come passare i dati da un processo ad un altro. In questo articolo vorrei concentrarmi specialmente su quest’ultimo aspetto, in un’architettura software abbiamo

Attacchi all’Intelligenza Artificiale: Attacchi contraddittori e avvelenamento dei dati.

Non è difficile dire che le immagini sotto riportate, mostrano tre cose diverse: un uccello, un cane e un cavallo. Ma per un algoritmo di apprendimento automatico, tutti e tre potrebbero essere associate ad una stessa cosa: una piccola scatola bianca con un contorno nero. Questo esempio ritrae una delle caratteristiche più pericolose dei modelli di apprendimento automatico, che può essere sfruttata per forzarli a classificare erroneamente i dati stessi. In realtà, il quadrato potrebbe essere molto più piccolo. E’ stato ingrandito per una buona visibilità. Gli algoritmi di apprendimento automatico potrebbero cercare le cose sbagliate nelle immagini che gli proponiamo. Questo

Categorie