Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ransomfeed 970x120 1
Crowdstrike 320×100

Tag: modelli linguistici

OpenAI sviluppa un nuovo framework per addestrare l’intelligenza artificiale all’onestà

OpenAI sta lavorando a un nuovo approccio di addestramento per aumentare la trasparenza nell’intelligenza artificiale e mitigare il rischio di fornire risposte prive di senso con eccessiva fiducia (Allucinazioni). Secondo OpenAI, i modelli linguistici di grandi dimensioni (LLM) odierni vengono generalmente istruiti a produrre risposte che rispecchiano le aspettative degli utenti. Tuttavia, questo metodo comporta un effetto collaterale negativo: i modelli tendono a diventare sempre più propensi all’adulazione, accettando di concordare con gli utenti solo per assecondarli, oppure a fornire informazioni false con una sicurezza eccessiva, un fenomeno comunemente definito come allucinazione. Il team ha sviluppato un framework, battezzato “Confession”, che si

CISA: Guida per l’integrazione sicura dell’AI nella tecnologia operativa (OT)

Dalla pubblicazione pubblica di ChatGPT nel novembre 2022, l’intelligenza artificiale (AI) è stata integrata in molti aspetti della società umana. Per i proprietari e gli operatori delle infrastrutture critiche, l’AI può essere utilizzata per aumentare l’efficienza e la produttività, migliorare il processo decisionale, ridurre i costi e migliorare l’esperienza dei clienti. Nonostante i numerosi vantaggi, integrare l’AI negli ambienti di tecnologia operativa (OT) che gestiscono servizi pubblici essenziali introduce anche rischi significativi — come la deriva nel tempo dei modelli di processo OT o l’elusione dei processi di sicurezza — che i proprietari e gli operatori devono gestire con attenzione per garantire

A tutto Open Source! Esce Mistral 3, e le AI entrano nel mondo OnPrem

L’azienda francese Mistral AI ha presentato la sua linea di modelli Mistral 3, rendendoli completamente open source con licenza Apache 2.0. La serie include diversi modelli compatti e densi con 3, 8 e 14 miliardi di parametri, oltre al modello di punta Mistral Large 3. Si tratta di un modello “Misture-of-Experts” con 41 miliardi di parametri attivi e 675 miliardi di parametri condivisi, che l’azienda definisce la sua soluzione più potente fino ad oggi. Mistral Large 3 è stato addestrato da zero su circa 3.000 GPU NVIDIA H200. Dopo un ulteriore addestramento, il modello ha raggiunto il livello dei migliori modelli didattici

WormGPT e KawaiiGPT Migliorano! Le “AI del male” sono un’arma per i cybercriminali

I criminali informatici non hanno più bisogno di convincere ChatGPT o Claude Code a scrivere malware o script per il furto di dati. Esiste già un’intera classe di modelli linguistici specializzati, progettati specificamente per gli attacchi. Uno di questi sistemi è WormGPT 4, che si pubblicizza come “la chiave per un’intelligenza artificiale senza confini“. Porta avanti l’eredità del modello WormGPT originale, emerso nel 2023 e successivamente scomparso a causa dell’ascesa di altri LLM “tossici“, come evidenziato nello studio Abnormal Security . Secondo gli esperti di Unit 42 presso Palo Alto Networks, le vendite di WormGPT 4 sono iniziate intorno al 27 settembre,

LLM: Parassiti di Wikipedia. L’importanza dell’uomo nell’era dell’intelligenza artificiale

Nell’era dei rapidi progressi dell’intelligenza artificiale, l’importanza di Wikipedia come fonte di conoscenza affidabile è diventata particolarmente significativa. Mentre le reti neurali generano testi, immagini e video, il loro lavoro si basa su contenuti creati dall’uomo. Dietro ogni risposta algoritmica si celano decenni di lavoro collettivo di redattori che hanno raccolto, verificato e perfezionato manualmente i fatti. Senza questo fondamento umano, l’idea stessa di intelligenza artificiale perde la sua sostenibilità. Secondo la Wikimedia Foundation, l’intelligenza artificiale non può esistere senza una conoscenza umana costantemente aggiornata. Senza questa fonte, i modelli linguistici inizieranno a degradarsi e alla fine smetteranno di produrre informazioni accurate.

ArXiv blocca gli articoli generati con l’Intelligenza Artificiale

arXiv, uno dei più importanti repository di preprint scientifici, a seguito delle crescenti preoccupazioni della comunità scientifica riguardo all’uso incontrollato di modelli di intelligenza artificiale generativa ha rilevato dei fatti inquietanti. La piattaforma, gestita dalla Cornell University e ampiamente utilizzata da scienziati in tutto il mondo, ha smesso di accettare due tipologie specifiche di pubblicazioni informatiche: articoli di revisione e articoli programmatici. La ragione di ciò è il forte aumento del numero di articoli generati automaticamente utilizzando modelli linguistici che non apportano alcun reale contributo scientifico. Per decenni, arXiv ha svolto il ruolo di piattaforma per la pubblicazione di articoli scientifici prima

Attento a ciò che dici all’AI! Potrebbero essere dati riservati

Nell’epoca in cui ogni domanda trova risposta con un semplice tap, noi utenti abbiamo forse preso un po’ troppo la mano con i nuovi assistenti basati sull’intelligenza artificiale. In fondo, cambia poco quale scegliamo: i modelli linguistici più diffusi appartengono tutti a grandi società private. Nulla di nuovo, dirà qualcuno; anche la maggior parte dei servizi digitali che utilizziamo ogni giorno lo sono. La differenza, però, è che qui non stiamo interagendo con un motore di ricerca o un social network, ma con un sistema che simula una conversazione umana. Ed è proprio questa naturalezza a spingerci, spesso senza rendercene conto, a

LatentBreak: un nuovo metodo di attacco per i modelli linguistici

Un gruppo di scienziati ha sviluppato un nuovo modo per attaccare modelli linguistici di grandi dimensioni: un metodo chiamato LatentBreak. A differenza delle tecniche precedenti, non utilizza suggerimenti complessi o caratteri insoliti facilmente rilevabili dai sistemi di difesa. LatentBreak modifica invece la query a livello delle rappresentazioni nascoste del modello, scegliendo formulazioni che sembrano innocue ma che in realtà innescano una risposta proibita. In precedenza, metodi come GCG, GBDA, SAA e AutoDAN tentavano di ingannare l’intelligenza artificiale con suffissi strani o confusi che distorcevano il suggerimento originale. Tali attacchi aumentano la cosiddetta perplessità, una misura di quanto “naturale” appaia il testo al

L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

L’altro giorno su LinkedIn mi sono ritrovato a discutere con una persona che si interessava seriamente al tema dell’intelligenza artificiale applicata al diritto. Non era una di quelle conversazioni da bar con buzzword e panico da Skynet: era un confronto vero, con dubbi legittimi.E in effetti, in Italia, tra titoli sensazionalisti e articoli scritti da chi confonde ChatGPT con HAL 9000, non c’è da stupirsi se regna la confusione. Il punto che aveva colpito il mio interlocutore era quello dell’allineamento. “Ma dove impara, un’AI, cosa è giusto e cosa è sbagliato?” Domanda semplice, ma che apre una voragine. Perché sì, l’AI sembra

ONU: un lavoratore su quattro è minacciato dalle AI. Ma anche i loro comunicati sono scritti dagli LLM

Le Nazioni Unite si affidano sempre più all’intelligenza artificiale nella produzione di testi ufficiali. Secondo un recente studio, il 13% dei comunicati stampa delle Nazioni Unite mostra già segni di generazione automatica. Un’analisi delle pubblicazioni aziendali e governative ha rivelato un quadro ancora più ampio: circa il 17% di tali materiali, dagli annunci di lavoro alle dichiarazioni ufficiali, avrebbe potuto essere redatto con l’ausilio di modelli linguistici. Ma sappiamo che l’intelligenza artificiale è utilizzata attivamente anche dai cittadini comuni. Secondo gli autori, circa il 18% dei reclami presentati al Consumer Financial Protection Bureau degli Stati Uniti tra il 2022 e il 2024

Categorie