Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ancharia Desktop 1 1
TM RedHotCyber 320x100 042514

Tag: #LLM

La sfida dell’IA a Davos: come proteggere i lavoratori in un mondo automatizzato

Durante il World Economic Forum del 2025 a Davos, uno dei temi più discussi è stato l’impatto dell’intelligenza artificiale (IA) sul mercato del lavoro e sui diritti dei lavoratori. Atle Høie, segretario generale dell’IndustriALL Global Union, ha espresso preoccupazione per la mancanza di attenzione dedicata alle questioni relative ai diritti dei lavoratori nell’era dell’IA. Høie ha sottolineato che, sebbene l’IA sia al centro delle discussioni, le implicazioni per i lavoratori non ricevono l’attenzione necessaria. Ha evidenziato che l’IA porterà alla scomparsa di numerose posizioni lavorative tradizionali, mentre ne emergeranno di nuove. È essenziale garantire che i lavoratori possano adattarsi a questa transizione

Cos’è La Distillazione nei Modelli Linguistici di Grandi Dimensioni (LLM)

“Non ci vuole un pennello grande ma un grande pennello!”, chi non si ricorda questa pubblicità storica? Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) come GPT hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale. Tuttavia, la loro enorme complessità e il consumo di risorse computazionali rappresentano un collo di bottiglia significativo per il loro utilizzo. Per affrontare questo problema, i ricercatori hanno adattato una tecnica applicata precedentemente nelle reti neurali profonde, non limitata al caso degli LLM, chiamata distillazione del modello. Tale tecnica permette di utilizzare modelli di dimensioni più ridotte a partire da modelli più grandi,

USA: DeepSeek come il Terrorismo! 20 anni di carcere e 100M$ di multa. La Proposta Shock

Influenza, Influenza, Influenza… Bloccare l’influenza è la parola d’ordine negli Stati Uniti D’America, con qualsiasi mezzo. Con le sanzioni e ora con una proposta di reclusione e una maxi multa che equipara chi scarica DeepSeek al terrorismo. Negli Stati Uniti, una nuova proposta di legge potrebbe comportare sanzioni severe, inclusi milioni di dollari di multe e pene detentive, per gli utenti dell’applicazione di intelligenza artificiale cinese DeepSeek. Il disegno di legge, presentato dal senatore repubblicano Josh Hawley, mira a “proibire alle persone negli Stati Uniti di promuovere le capacità dell’intelligenza artificiale all’interno della Repubblica Popolare Cinese“. La legislazione proposta vieterebbe l’importazione di

Dal Giallo al Laboratorio Di Armi Chimiche Il Passo E’ Breve! Jailbreak di ChatGPT con Doppi Negativi

Recentemente, Alin Grigoras, un chimico computazionale, ha scritto alla Redazione di Red Hot Cyber. Ci informava che prendendo spunto da un articolo sul bug bounty di Anthropic, era riuscito a farsi dare la ricetta chimica dettagliata di un’arma chimica da Chatgpt La Chat che è possibile visionare a questo link, riguardava la richiesta di informazioni su un laboratorio chimico sospetto, presentata all’LLM come parte di un romanzo giallo. Questo caso offre l’opportunità di analizzare come e perché i sistemi di sicurezza di ChatGPT siano stati elusi, nonché di riflettere sulle implicazioni etiche e tecniche di tali vulnerabilità. Un mio non amico ha

Lo Tsunami DeepSeek ha Colpito nel Segno: Una AI Più Democratica Bussa Alle Porte

La scorsa settimana, la società cinese DeepSeek ha rilasciato R1, il suo nuovo modello linguistico, scatenando un’ondata di reazioni nel settore dell’intelligenza artificiale. Non solo R1 è paragonabile ai migliori modelli occidentali, ma è stato sviluppato a una frazione del costo. Anche se ancora oggi molti mettono in dubbio queste informazioni, va da se che DeepSeek è stato uno tsunami nel mondo dell’Intelligenza generativa e il suo modello Open Source ha sconvolto decisamente gli equilibri e le regole del gioco. DeepSeek ha scelto di renderlo completamente gratuito e open-source, provocando un terremoto nel panorama tecnologico globale. Il crollo del mercato e le

DeepSeek ha copiato OpenAI? Il sospetto sulla ‘distillazione’ dell’AI

OpenAI ha affermato di aver trovato prove del fatto che la startup cinese DeepSeek stava utilizzando i suoi modelli proprietari per addestrare il proprio concorrente open source. Ciò solleva preoccupazioni circa la possibile violazione della proprietà intellettuale. Secondo il Financial Times, OpenAI sospetta che DeepSeek abbia utilizzato una tecnica chiamata “distillazione”, un processo in cui vengono utilizzati modelli più potenti per migliorare l’efficienza delle controparti più piccole. Sebbene questo metodo sia comune nel settore, OpenAI ritiene che l‘azienda cinese abbia violato i termini della propria piattaforma creando la propria IA competitiva. “Il problema inizia quando si utilizza il modello non solo per

DeepSeek-R1 : Conoscere i LLM è un bene, ma non fidarsi è meglio!

Autori: Sergio Corpettini, Stefano Gazzella, Luca Vinciguerra Molto, forse troppo, si sta scrivendo in questi giorni sul nuovo modello rilasciato dalla cinese DeepSeek (www.deepseek.com). Molti dicono che OpenAI sia finita, altri che gli USA hanno perso la gara all’AI, altri ancora annunciano l’imminente riprogrammazione sociale derivante dall’uso di LLM Cinesi. Facciamo un passetto indietro, però. Se ammettiamo di capirci poco quanto niente di Reti Neurali, di fantomatica Intelligenza Artificiale e di trendissima AGI, allora è possibile informarsi prima di scatenare punchline più o meno allarmistiche, o ergersi sul palchetto con un “Ve lo spiego io” di boomeriana memoria andando a confondere informazione

DeepMind, OpenAI e L’Ascesa dell’IA Generativa: Cosa Ci Riserva il Futuro

Il MIT ha pubblicato le sue previsioni annuali per lo sviluppo dell’intelligenza artificiale. Negli ultimi due anni, gli analisti della rivista hanno previsto con precisione l’emergere di assistenti interattivi basati su modelli linguistici multimodali, il rapido sviluppo della generazione video e l’espansione delle capacità robotiche. L’unica previsione che non si è avverata è stata la massiccia diffusione dei deepfake politici durante le elezioni. In ogni caso, c’è ancora molto da fare. Vediamo cosa potrà sorprenderci il 2025. Piattaforme virtuali generative Dopo l’era della generazione di immagini nel 2023 e dei video nel 2024, la tecnologia si sta spostando a un nuovo livello.

Da centinaia di anni a un paio di mesi: Google Trasforma lo sviluppo del software con i LLM

Google sta utilizzando attivamente i propri strumenti basati sull’intelligenza artificiale per modernizzare le proprie basi di codice interne. In un recente articolo scientifico, gli specialisti dell’azienda hanno descritto come i modelli linguistici di grandi dimensioni (LLM) abbiano contribuito a ridurre di centinaia di volte i tempi di migrazione del codice su progetti di grandi dimensioni. Questi processi includevano attività complesse come la migrazione a ID a 64 bit in Google Ads, l’aggiornamento da JUnit3 a JUnit4 e la sostituzione di Joda con Java Time. Il compito di passare agli identificatori a 64 bit ha richiesto più di 500 milioni di righe di codice in decine

Mark Zukerberg

Mark Zuckerberg sotto accusa: IA Meta addestrata con contenuti piratati?

I documenti del tribunale suggeriscono che Meta potrebbe aver utilizzato i dati della libreria online illegale Library Genesis (LibGen) per addestrare i suoi modelli di intelligenza artificiale. In particolare nelle discussioni tra i dipendenti Meta sarebbe stata sollevata la questione dell’etica nel lavorare con tali dati. Uno dei messaggi, attribuito a un ingegnere dell’azienda, diceva: “Scaricare torrent dal laptop aziendale Meta è in qualche modo sbagliato“. Secondo questi documenti, Meta ha utilizzato materiali dal database LibGen per addestrare il suo modello Llama. LibGen è conosciuta come una biblioteca pirata che offre accesso gratuito a libri accademici, bestseller, audiolibri, fumetti e riviste. Il sito consente di scaricare materiali, il

Categorie